JP2006005618A - Sound source environment restoration system, automatic sound source environment restoring device, and method and program for sound source environment restoration - Google Patents
Sound source environment restoration system, automatic sound source environment restoring device, and method and program for sound source environment restoration Download PDFInfo
- Publication number
- JP2006005618A JP2006005618A JP2004179220A JP2004179220A JP2006005618A JP 2006005618 A JP2006005618 A JP 2006005618A JP 2004179220 A JP2004179220 A JP 2004179220A JP 2004179220 A JP2004179220 A JP 2004179220A JP 2006005618 A JP2006005618 A JP 2006005618A
- Authority
- JP
- Japan
- Prior art keywords
- information
- sound
- source environment
- sound source
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 52
- 230000010365 information processing Effects 0.000 claims description 70
- 230000008569 process Effects 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 22
- 230000005236 sound signal Effects 0.000 abstract description 20
- 238000010191 image analysis Methods 0.000 description 38
- 238000004458 analytical method Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000006837 decompression Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
Images
Landscapes
- Stereophonic System (AREA)
Abstract
Description
本発明は、情報処理装置のモニタ部に表示された複数次元の物体画像の動作に応じて、その物体画像に関する音声を複数のスピーカに出力させる音源環境復元システム、自動音源環境復元装置、音源環境復元方法及び音源環境復元プログラムに関し、特に、複数のスピーカからの出力音に対して各スピーカごとに異なった制御を行う音源環境復元システム、自動音源環境復元装置、音源環境復元方法及び音源環境復元プログラムに関する。 The present invention relates to a sound source environment restoration system, an automatic sound source environment restoration device, and a sound source environment that output sound related to an object image to a plurality of speakers according to the operation of a multidimensional object image displayed on a monitor unit of an information processing device. In particular, a sound source environment restoration system, an automatic sound source environment restoration device, a sound source environment restoration method, and a sound source environment restoration program that perform different control for each speaker for output sound from a plurality of speakers. About.
近年、パーソナルコンピュータ(パソコン)は、その低価格化や高性能化により、企業だけでなく一般家庭にまで普及してきている。また、ソフトウエアについても、一般向けに多種多様な製品が開発され販売されている。中でもゲームソフトは、その種類も豊富であり、一台のパソコンで行われるものから、最近ではいわゆるオンラインゲームあるいはネットワークゲームと呼ばれるもの(複数のパソコンでネットワークを介して行われるゲーム)まで多数のものが市場に出回っている。 In recent years, personal computers (personal computers) have become popular not only in corporations but also in general households due to their low price and high performance. As for software, a wide variety of products have been developed and sold to the general public. In particular, there are many types of game software, from what is played on a single computer to what is recently called online games or network games (games played on multiple computers via a network). Are on the market.
ところで、パソコン上でゲームソフトの実行が開始されると、通常、そのゲーム用の画面がモニタ部に表示され、さらに、パソコンに備えられたスピーカからは音声が出力される。
音声としては、例えば、BGM(Back Ground Music)や効果音(例として、ボードゲームにおいて駒が置かれたときの音や、格闘ゲームにおいて攻撃を受けたときの音等)などがあるが、従来は、ゲームの進行状況(表示された物体の動作など)に応じて音声が選択され出力されていた。
By the way, when the execution of the game software is started on the personal computer, the screen for the game is usually displayed on the monitor unit, and sound is output from a speaker provided in the personal computer.
Examples of the sound include BGM (Back Ground Music) and sound effects (for example, sound when a piece is placed in a board game, sound when an attack is received in a fighting game, etc.). , Voice was selected and output according to the progress of the game (such as the action of the displayed object).
ところが、スピーカが複数備えられた場合、モニタ部に表示された物体の動作と、各スピーカからの出力音声とが一致していないように聞こえる場合があった。
例えば、物体(飛行機)が画面右側から左側へ移動(飛行)するシーンが映し出された場合において、モニタ部の左右それぞれに設置されたスピーカの双方から同じ飛行音が出力されたとすると、当該パソコンの操作者は、その出力音から、飛行機が飛行していることは知り得るものの、右から左へ向かって飛行していることは知り得なかった。
そこで、画面に映し出された画像の内容に応じて、複数のスピーカからそれぞれ異なる音声を出力し、操作者に臨場感を与える技術が提案されている。
However, when a plurality of speakers are provided, it may sound that the operation of the object displayed on the monitor unit does not match the output sound from each speaker.
For example, when a scene in which an object (airplane) moves (flys) from the right side of the screen to the left side is projected, if the same flight sound is output from both speakers installed on the left and right sides of the monitor unit, From the output sound, the operator can know that the airplane is flying, but cannot know that it is flying from right to left.
In view of this, a technique has been proposed in which different sounds are output from a plurality of speakers according to the content of an image displayed on the screen to give the operator a sense of realism.
例えば、モニタ部の左右にそれぞれスピーカが設置されており、そのモニタ部に表示された物体が右側から左側へ移動したとすると、初めは右スピーカから移動音が出力され、次第に左スピーカから出力される移動音が大きくなり、その後左スピーカだけから移動音が出力されるように制御するという技術が提案されている(例えば、特許文献1参照。)。
この技術によれば、パソコンの操作者は、モニタ部に表示された物体の移動方向を、それら出力音から知ることができる。
For example, if speakers are installed on the left and right sides of the monitor unit, and the object displayed on the monitor unit moves from the right side to the left side, the moving sound is output from the right speaker first, and then gradually output from the left speaker. A technique has been proposed in which control is performed so that the moving sound increases and then the moving sound is output only from the left speaker (see, for example, Patent Document 1).
According to this technique, the operator of the personal computer can know the moving direction of the object displayed on the monitor unit from these output sounds.
また、他の従来技術として、例えば、各スピーカと操作者との距離及び角度を算出するセンサ部と、このセンサ部からの情報にもとづき操作者に対して適切な音の周波数帯域や強度を算出する演算装置部と、この演算装置部での処理結果に当てはまる予め格納してある音の周波数帯域データと強度−周波数特性データを選択し音源データとしてパソコン部(スピーカ)へ送出する分類装置部とを備えた構成とする技術が提案されている(例えば、特許文献2参照。)。
この技術によれば、操作者の位置が、モニタ部やスピーカ等に囲まれた範囲の中心からずれたとしても、その操作者に対して、モニタ部に映し出された三次元物体の移動に応じた音を適格に聴き取らせることができる。
According to this technique, even if the position of the operator deviates from the center of the range surrounded by the monitor unit, the speaker, etc., the operator can respond to the movement of the three-dimensional object displayed on the monitor unit. Sound can be heard properly.
しかしながら、上記の各従来技術においては、一つのモニタ部に表示された物体画像の動作に応じて複数のスピーカの出力音をそれぞれ制御することはできるものの、複数のモニタ部がそれぞれ異なる物体画像を表示しており、それら物体画像が共通するソフトウエアの実行領域上で動作する場合に、各操作者あるいは各操作者以外の者が、その実行領域全体の動作状況を各スピーカの出力音から知ることはできなかった。 However, in each of the above prior arts, although the output sounds of a plurality of speakers can be controlled in accordance with the operation of the object image displayed on one monitor unit, the plurality of monitor units can display different object images. When operating on the execution area of software that is displayed and has the same object image, each operator or a person other than each operator knows the operation status of the entire execution area from the output sound of each speaker. I couldn't.
例えば、モニタ部m1には物体画像a1が、モニタ部m2には物体画像a2が、モニタ部m3には物体画像a3がそれぞれ表示されているものとする。そして、スピーカs1からは物体a1の動作にもとづく音声が、スピーカs2からは物体a2の音声が、スピーカs3からは物体a3の音声がそれぞれ出力されているものとする。
この場合、それらスピーカs1,s2,s3の各出力音を聞くことができる者(聴音者)は、各物体a1,a2,a3個々の動作内容を知ることはできるものの、実行領域全体から見た各物体a1,a2,a3の動作状況を把握することはできないという問題があった。
For example, it is assumed that the object image a1 is displayed on the monitor unit m1, the object image a2 is displayed on the monitor unit m2, and the object image a3 is displayed on the monitor unit m3. It is assumed that the sound based on the operation of the object a1 is output from the speaker s1, the sound of the object a2 is output from the speaker s2, and the sound of the object a3 is output from the speaker s3.
In this case, a person who can hear the output sounds of the speakers s1, s2, and s3 (listener) can know the operation contents of the objects a1, a2, and a3, but viewed from the entire execution region. There has been a problem that it is impossible to grasp the operation status of each of the objects a1, a2, and a3.
具体例をもって説明する。例えば、物体a1の音声が、聴音者の前方に設置されたスピーカs1から出力されており、また、物体a2の音声が、聴音者の後方に設置されたスピーカs2から出力されているものとする。ここで、モニタ部m1に表示された物体a1がモニタ部m2に表示された物体a2に近づく方向へ移動したとする。この場合、物体a1は、共通ソフトウエアの実行領域全体から見ると、聴音者の前方から後方へ移動していることになる。ところが、物体a1の移動音はスピーカs1から出力されており、物体a1が物体a2に接近したとしても、その移動音は依然スピーカs1(聴音者の前方に設置されたスピーカ)からしか出力されてこない。このため、聴音者は、その物体a1が前方の限られた領域内でその奥の方から手前の方へ移動したにすぎないとの錯覚を覚えることになる。このように、聴音者は、実行領域全体から見た物体a1の動作状況を、スピーカの出力音からは正確に捉えることができなかった。 A specific example will be described. For example, the sound of the object a1 is output from the speaker s1 installed in front of the listener, and the sound of the object a2 is output from the speaker s2 installed behind the listener. . Here, it is assumed that the object a1 displayed on the monitor unit m1 moves in a direction approaching the object a2 displayed on the monitor unit m2. In this case, the object a1 moves from the front to the rear of the listener when viewed from the entire execution area of the common software. However, the moving sound of the object a1 is output from the speaker s1, and even if the object a1 approaches the object a2, the moving sound is still output only from the speaker s1 (speaker installed in front of the listener). Not come. For this reason, the listener feels the illusion that the object a1 has only moved from the back to the front within a limited area in front. Thus, the listener cannot accurately grasp the operation state of the object a1 viewed from the entire execution area from the output sound of the speaker.
また、物体a2が表示されたモニタ部m2に同時に表示されるほど物体a1が近づいた場合、聴音者の後方にあるスピーカs2からは、物体a2と物体a1との各音声がともに出力されるが、このとき、モニタ部m1にも物体a1と物体a2とが表示されるため、聴音者の前方にあるスピーカs1からは、スピーカs2と同様に、物体a1と物体a2との音声がともに出力されてしまう。そうすると、聴音者は、前方からもまた後方からも、物体a1と物体a2との音声が共に聞こえることとなり、実行領域全体における物体a1及び物体a2の存在位置(実行領域全体から見て物体a1や物体a2がどの位置に存在しているか)を正しく捉えることができなかった。 When the object a1 is so close that the object a2 is displayed on the displayed monitor unit m2 at the same time, the sounds of the object a2 and the object a1 are output from the speaker s2 behind the listener. At this time, since the object a1 and the object a2 are also displayed on the monitor unit m1, both the sounds of the object a1 and the object a2 are output from the speaker s1 in front of the listener similarly to the speaker s2. End up. Then, the listener can hear both the sound of the object a1 and the object a2 both from the front and the rear, and the positions of the object a1 and the object a2 in the entire execution region (the object a1 and the object a1 as viewed from the entire execution region). In which position the object a2 is present) could not be correctly captured.
本発明は、上記の問題を解決すべくなされたものであり、複数のモニタ部に表示された各物体画像が共通のソフトウエアの実行領域上で動作している場合において、その実行領域全体から見た各物体の動作状況を、複数のスピーカから出力された音声により把握可能とする音源環境復元システム、自動音源環境復元装置、音源環境復元方法及び音源環境復元プログラムの提供を目的とする。 The present invention has been made to solve the above-described problem, and in the case where each object image displayed on a plurality of monitor units is operating on the execution area of a common software, the entire execution area is used. It is an object of the present invention to provide a sound source environment restoration system, an automatic sound source environment restoration device, a sound source environment restoration method, and a sound source environment restoration program that make it possible to grasp the operation status of each object that has been viewed by sounds output from a plurality of speakers.
この目的を達成するため、本発明の音源環境復元システムは、物体画像を表示するモニタ部を有した複数の情報処理装置と、各物体画像に関する音声を出力して聴音可能空間を形成する一又は二以上のスピーカと、各物体画像に関する音声情報を複数の情報処理装置から受信し、この受信した複数の音声情報を統合し、聴音可能空間で出力される音声として復元し、この復元音声を各スピーカに出力させる自動音源環境復元装置とを備えた構成としてある。 In order to achieve this object, a sound source environment restoration system according to the present invention includes a plurality of information processing apparatuses having a monitor unit that displays object images, and outputs sound related to each object image to form an audible space. Two or more speakers and sound information about each object image are received from a plurality of information processing apparatuses, and the received plurality of sound information are integrated and restored as sound output in an audible space. An automatic sound source environment restoration device for outputting to a speaker is provided.
音源環境復元システムをこのような構成とすると、自動音源環境復元装置が各情報処理装置から受信した複数の音声情報を統合し聴音可能空間で出力される音声として復元するため、複数のスピーカからはその復元音声を出力して聴音者に聞かせることができる。
このため、例えば、各モニタ部に表示された物体画像の音声が、各情報処理装置で実行された共通のソフトウエアの実行領域全体から捉えられた音声として統合処理される。しかも、聴音可能空間をソフトウエアの実行領域として想定し、この実行領域上に存在する各物体の位置に応じて音声が復元処理される。このため、聴音者は、聴音可能空間でその復元音声を聞くことにより、実行領域における各物体の動作状況を正確に捉えることができる。
When the sound source environment restoration system has such a configuration, the automatic sound source environment restoration device integrates a plurality of pieces of audio information received from the respective information processing devices and restores them as sounds output in an audible space. The restored sound can be output to the listener.
For this reason, for example, the sound of the object image displayed on each monitor unit is integrated as sound captured from the entire execution area of the common software executed by each information processing apparatus. In addition, assuming that the audible space is an execution area of the software, the sound is restored according to the position of each object existing in the execution area. For this reason, the listener can accurately grasp the operation status of each object in the execution area by listening to the restored sound in the audible space.
また、本発明の音源環境復元システムは、各情報処理装置が、それぞれ共通のソフトウエアを実行するとともに、ソフトウエアの実行領域のうちの一部の領域を操作領域として物体画像を動作させる処理を行い、自動音源環境復元装置が、実行領域中の一箇所を基準点とし、各情報処理装置から、物体画像に関する音声情報とともに、物体に関する位置情報及び/又は操作領域に関する情報を受信し、これら受信した各情報が示す物体及び/又は操作領域と基準点との位置関係にもとづいて復元音声を生成する構成としてある。 The sound source environment restoration system according to the present invention performs a process in which each information processing apparatus executes common software and operates an object image using an operation area as a part of the execution area of the software. The automatic sound source environment restoration apparatus receives one location in the execution area as a reference point, receives position information related to the object and / or information related to the operation area from each information processing apparatus together with the audio information related to the object image, and receives these information The restored voice is generated based on the positional relationship between the object and / or the operation area indicated by each piece of information and the reference point.
音源環境復元システムをこのような構成とすれば、実行領域における各物体や操作領域と基準点との位置関係にもとづいて復元音声を生成することができる。これにより、実行領域における各物体の位置関係が明確になり、それら物体の音声が発せられた位置や伝わり方などを、復元音声として正確に復元・再現できる。
しかも、その基準点を、聴音者が復元音声を聞く位置として想定することにより、実行領域全体における各物体の動作状況を把握可能な復元音声を、その聴音者に対して提供できる。
If the sound source environment restoration system has such a configuration, a restored voice can be generated based on the positional relationship between each object or operation area in the execution area and the reference point. As a result, the positional relationship between the objects in the execution area is clarified, and the positions and ways of transmission of the sounds of these objects can be accurately restored and reproduced as restored sounds.
Moreover, by assuming the reference point as a position where the listener listens to the restored voice, the restored voice capable of grasping the operation status of each object in the entire execution area can be provided to the listener.
また、本発明の音源環境復元システムは、自動音源環境復元装置が、各情報処理装置から受信した各操作領域に関する情報にもとづいて実行領域を設定する構成としてある。 The sound source environment restoration system according to the present invention is configured such that the automatic sound source environment restoration device sets an execution area based on information about each operation area received from each information processing apparatus.
音源環境復元システムをこのような構成とすると、各情報処理装置の操作領域のすべてを包含して実行領域を設定できる。このため、聴音者は、各情報処理装置で表示されているすべての物体画像の動作状況を把握できる。 When the sound source environment restoration system has such a configuration, an execution area can be set including all the operation areas of each information processing apparatus. Therefore, the listener can grasp the operation status of all object images displayed on each information processing apparatus.
また、本発明の音源環境復元システムは、各情報処理装置が、モニタ部に表示された一又は二以上の物体に関する情報を生成し、自動音源環境復元装置が、受信した一又は二以上の物体に関する情報にもとづいて、一又は二以上の物体における反射音を演算し復元音声を生成する構成としてある。 In the sound source environment restoration system of the present invention, each information processing device generates information on one or more objects displayed on the monitor unit, and the automatic sound source environment restoration device receives one or more objects. On the basis of the information on the information, the reflected sound in one or two or more objects is calculated to generate a restored sound.
音源環境復元システムをこのような構成とすれば、より臨場感のある復元音声を聴音者に提供できる。例えば、モニタ部m1に表示された物体a1からの音声が、モニタ部m2に表示された物体a2に到達して反射した場合、この反射音をも復元することができる。このため、聴音者は、よりリアリティのある復元音声を聞くことができる。 If the sound source environment restoration system has such a configuration, a more realistic restoration sound can be provided to the listener. For example, when the sound from the object a1 displayed on the monitor unit m1 reaches the object a2 displayed on the monitor unit m2 and is reflected, this reflected sound can also be restored. For this reason, the listener can hear more realistic restored sound.
また、本発明の自動音源環境復元装置は、モニタ部に表示された物体画像に関する音声情報を複数の情報処理装置から受信する受信部と、複数の音声情報を統合し、一又は二以上のスピーカからの出力音により形成される聴音可能空間での出力音声として復元する音声復元部と、復元音声を各スピーカへ送って出力させる音声出力部とを備えた構成としてある。 In addition, the automatic sound source environment restoration device of the present invention integrates a plurality of audio information with a receiving unit that receives audio information regarding an object image displayed on a monitor unit from a plurality of information processing devices, and one or more speakers. The sound restoration unit restores the output sound in the audible space formed by the output sound from the sound and the sound output unit that sends the restored sound to each speaker and outputs it.
自動音源環境復元装置をこのような構成とすると、複数のモニタ部に表示された各物体画像の音声が統合され復元音声として複数のスピーカから出力されるため、聴音可能空間内では、その出力された復元音声を聞くことにより、各情報処理装置のモニタ部に表示されている物体画像の動作状況を正確に把握することができる。 When the automatic sound source environment restoration device has such a configuration, the sound of each object image displayed on a plurality of monitor units is integrated and output as a restored sound from a plurality of speakers. By listening to the restored voice, it is possible to accurately grasp the operation state of the object image displayed on the monitor unit of each information processing apparatus.
また、本発明の音源環境復元方法は、モニタ部に表示された物体画像に関する音声情報を複数の情報処理装置から受信する受信処理と、複数の音声情報を統合し、一又は二以上のスピーカからの出力音により形成される聴音可能空間での出力音声として復元する音声復元処理と、復元音声を各スピーカへ送って出力させる音声出力処理とを有した方法としてある。 Also, the sound source environment restoration method of the present invention integrates a reception process for receiving audio information related to an object image displayed on a monitor unit from a plurality of information processing devices and a plurality of audio information, and outputs from one or more speakers. There is a method including a sound restoration process for restoring the output sound in the audible space formed by the output sound and a sound output process for sending the restored sound to each speaker for output.
音源環境復元方法をこのような方法とすれば、複数の情報処理装置から収集された各物体画像に関する音声情報が統合され聴音可能空間で出力される音声として復元されるため、各物体画像の動作状況が、復元音声を聞くことにより把握できる。 If the sound source environment restoration method is such a method, the sound information on each object image collected from a plurality of information processing devices is integrated and restored as sound output in a hearing-capable space. The situation can be grasped by listening to the restored voice.
また、本発明の音源環境復元プログラムは、モニタ部に表示された物体画像に関する音声情報を複数の情報処理装置から受信する受信処理と、複数の音声情報を統合し、一又は二以上のスピーカからの出力音により形成される聴音可能空間での出力音声として復元する音声復元処理と、復元音声を各スピーカへ送って出力させる音声出力処理とを自動音源環境復元装置に実行させる構成としてある。 In addition, the sound source environment restoration program of the present invention integrates a reception process for receiving audio information regarding an object image displayed on a monitor unit from a plurality of information processing apparatuses and a plurality of audio information, and outputs from one or more speakers. The automatic sound source environment restoration apparatus executes a sound restoration process for restoring the output sound in the audible space formed by the output sound and a sound output process for sending the restored sound to each speaker for output.
このような構成を有する音源環境復元プログラムを自動音源環境復元装置に読み取らせて実行させることにより、共通のソフトウエアの実行領域上で動作している各物体の動作状況を、複数のスピーカから出力された音声により把握することができる。 The sound source environment restoration program having such a configuration is read and executed by the automatic sound source environment restoration device, so that the operation status of each object operating in the common software execution area is output from a plurality of speakers. It can be grasped by the voice that has been made.
本発明によれば、複数のモニタ部に表示された各物体画像が共通のソフトウエアの実行領域上で動作している場合において、それら物体画像の音声情報が自動音源環境復元装置で統合され、その実行領域における各物体の存在位置で発生した音声として復元・再現される。このため、その復元音声を聞くことにより、共通ソフトウエアの実行領域における各物体画像の動作状況や各情報処理装置での進捗状況を把握・理解することができる。 According to the present invention, when each object image displayed on a plurality of monitor units is operating on the execution area of the common software, the audio information of these object images is integrated by the automatic sound source environment restoration device, It is restored and reproduced as a voice generated at the position of each object in the execution area. Therefore, by listening to the restored voice, it is possible to grasp and understand the operation status of each object image and the progress status of each information processing device in the execution area of the common software.
以下、本発明に係る音源環境復元システム、自動音源環境復元装置、音源環境復元方法及び音源環境復元プログラムの好ましい実施形態について、図面を参照して説明する。 Hereinafter, preferred embodiments of a sound source environment restoration system, an automatic sound source environment restoration device, a sound source environment restoration method, and a sound source environment restoration program according to the present invention will be described with reference to the drawings.
まず、本発明の音源環境復元システム及び自動音源環境復元装置の実施形態について、図1を参照して説明する。
同図は、本実施形態の音源環境復元システムの構成を示すブロック図である。
同図に示すように、音源環境復元システム1は、情報処理装置10−1〜10−nと、スピーカ20−1〜20−nと、自動音源環境復元装置30と、ネットワーク40とを備えている。
First, an embodiment of a sound source environment restoration system and an automatic sound source environment restoration device according to the present invention will be described with reference to FIG.
FIG. 2 is a block diagram showing the configuration of the sound source environment restoration system of this embodiment.
As shown in the figure, the sound source
ここで、情報処理装置10−1〜10−n(以下、総称して「情報処理装置10」という。)は、プログラムの実行により所定の機能を動作する装置であって、例えば、パーソナルコンピュータ(パソコン)、ノートパソコン、携帯電話、PHS、PDAなどが含まれる。
各情報処理装置10は、それぞれネットワーク40で接続することができる。
なお、情報処理装置10は、図1においては、音源環境復元システム1に四台備えられているが、四台に限るものではなく、一台、二台、三台又は五台以上備えることができる。
Here, the information processing apparatuses 10-1 to 10-n (hereinafter collectively referred to as “
Each
In FIG. 1, four
この情報処理装置10は、図2に示すように、記憶部11と、パソコン部12と、モニタ部13と、画像情報解析部14と、通信部15とを備えている。
記憶部11は、ハードディスクや外部記憶装置などで構成することができ、情報処理装置10の有する各種機能を実行させるためのプログラム(インストールあるいはダウンロード等されたソフトウエアを含む)や、各種情報などを記憶する。
具体例として、例えば、記憶部11には、三次元物体の画像を生成したりモニタ部12に表示させたりするためのソフトウエア、画像情報解析部14に解析処理を実行させるためのプログラム、物体画像情報、画像解析情報などが記憶される。
As illustrated in FIG. 2, the
The storage unit 11 can be configured by a hard disk, an external storage device, or the like, and stores programs (including software installed or downloaded) for executing various functions of the
As a specific example, for example, in the storage unit 11, software for generating an image of a three-dimensional object or displaying it on the
パソコン部12は、情報処理装置10の処理手段(制御手段や演算手段を含む部分であってCPUなどで構成される)を少なくとも有する情報処理装置10の本体部分である。このパソコン部12は、記憶部11に記憶されたプログラムを実行することにより情報処理装置10の構成各部に指令を送り所定の処理を行わせる。
このパソコン部12は、所定のプログラムを読み出して実行することにより、三次元物体の画像(物体画像)を生成する。そして、その生成した物体画像をモニタ部13へ送り表示させる。
なお、生成される物体画像は、本実施形態においては三次元物体の画像としてあるが、三次元に限るものではなく、二次元等であってもよい。
The
The
The generated object image is a three-dimensional object image in the present embodiment, but is not limited to three dimensions, and may be two-dimensional.
また、パソコン部12は、物体画像に関する情報(物体画像情報)を記憶部11から取り出して画像情報解析部14へ送る。そして、画像情報解析部14からの画像解析情報を記憶部11へ送り記憶させる。
さらに、パソコン部12は、記憶部11から取り出した画像解析情報(又は、画像情報解析部14からの画像解析情報)を、通信部15を介して、自動音源環境復元装置30へ送る。
In addition, the
Further, the
モニタ部13は、CRT(ブラウン管),LCD(液晶ディスプレイ),プラズマディスプレイなどで構成することができ、例えば、パソコン部12からの物体画像などを表示することができる。
ソフトウエアにより実行可能な領域(実行領域)のうちの一部又は全部の領域がモニタ部13で表示されている場合、この領域を「操作領域」という。
各情報処理装置10は、図3に示すように、共通の実行領域のうち異なった操作領域で物体画像をそれぞれ表示させることができる。
The
When a part or all of an area (execution area) executable by software is displayed on the
As illustrated in FIG. 3, each
例えば、同図に示すように、情報処理装置10−1は、実行領域の上半分と右下の領域、情報処理装置10−2は、実行領域の下半分の領域、情報処理装置10−3は、実行領域の下半分の領域、情報処理装置10−4は、実行領域の右半分の領域とすることができる。
なお、各操作領域内で表示される物体画像は、各情報処理装置10が共通の物体画像を表示させることもでき、また、異なった物体画像を表示させることもできる。
For example, as shown in the figure, the information processing apparatus 10-1 is the upper half and lower right area of the execution area, the information processing apparatus 10-2 is the lower half area of the execution area, and the information processing apparatus 10-3. Can be the lower half of the execution area, and the information processing apparatus 10-4 can be the right half of the execution area.
In addition, the object image displayed in each operation area can be displayed by each
画像情報解析部14は、パソコン部12で生成された三次元物体が発する音声信号に関する情報を解析する。すなわち、画像情報解析部14は、パソコン部12からの物体画像情報を解析することにより、モニタ部13に現在表示されている三次元物体についての各種情報を得る。
この画像情報解析部14が得ることができる情報(画像解析情報)としては、例えば、次のようなものがある。
物体特定情報、物体位置情報、物体移動開始位置情報、物体移動方向情報、物体移動速度情報、物体移動終了位置情報、操作者位置情報、音声情報、操作領域情報、他物体関係情報など
The image
Examples of information (image analysis information) that can be obtained by the image
Object identification information, object position information, object movement start position information, object movement direction information, object movement speed information, object movement end position information, operator position information, audio information, operation area information, other object related information, etc.
物体特定情報とは、モニタ部13に現在表示されている物体は何かを示す情報をいう。この物体特定情報には、物体の種類などを示す情報が含まれる。
物体位置情報(物体に関する位置情報)とは、物体が現在どの位置にいるかを示す情報をいう。なお、物体位置情報が示す位置は、操作領域に対する位置であってもよく、また、実行領域に対する位置であってもよい。
The object specifying information is information indicating what is the object currently displayed on the
The object position information (position information related to the object) is information indicating where the object is currently located. Note that the position indicated by the object position information may be a position relative to the operation area, or may be a position relative to the execution area.
物体移動開始位置情報とは、物体が移動を開始した位置を示す情報をいう。
物体移動方向情報とは、物体がどの方向へ移動しているかを示す情報をいう。
物体移動速度情報とは、物体がどれくらいの速度で移動しているかを示す情報をいう。
物体移動終了位置情報とは、物体が移動を終了した位置を示す情報をいう。
操作者位置情報とは、操作者が、共通ソフトウエアの実行領域のうちどの地点(領域)に位置しているかを示す情報をいう。
The object movement start position information is information indicating a position where the object starts moving.
The object moving direction information is information indicating in which direction the object is moving.
The object moving speed information is information indicating how fast the object is moving.
The object movement end position information is information indicating a position where the object has finished moving.
The operator position information refers to information indicating at which point (area) the operator is located in the execution area of the common software.
音声情報(物体画像に関する音声情報)とは、三次元物体の動作等にともない発せられる音声は何か、その種類等を示す情報をいう。
操作領域情報(操作領域に関する情報)とは、モニタ部13に表示されている操作領域が、ソフトウエアにより実行可能な領域(実行領域)のうちどの部分に位置しているかを示す情報をいう。
他物体関係情報とは、物体a1が存在している操作領域内に他の物体a2が存在している場合、物体a1と物体a2との関係(例えば、距離など)はどうかを示す情報をいう。この他物体関係情報には、例えば、反射音の発生有無等を示す情報が含まれる。
Audio information (audio information related to an object image) refers to information indicating what type of audio is produced in accordance with the operation of a three-dimensional object, and the type of the audio.
The operation area information (information related to the operation area) refers to information indicating in which part of the area (execution area) the operation area displayed on the
The other object relationship information is information indicating how the relationship (for example, distance) between the object a1 and the object a2 is present when the other object a2 is present in the operation region where the object a1 exists. . This other object related information includes, for example, information indicating the presence / absence of reflected sound.
これら画像解析情報は、画像情報解析部14で取得された後、パソコン部12へ送られる(又は、記憶部11へ送られて記憶される)。
なお、画像解析情報のうち、例えば、物体位置情報、物体移動開始位置情報、物体移動方向情報、物体移動終了位置情報、操作者位置情報、操作領域情報、他物体関係情報などは、図5に示すように、座標で表すことができる。
The image analysis information is acquired by the image
Of the image analysis information, for example, the object position information, the object movement start position information, the object movement direction information, the object movement end position information, the operator position information, the operation area information, and the other object related information are shown in FIG. As shown, it can be expressed in coordinates.
通信部(送信部)15は、例えばネットワークボードなどで構成することができ、パソコン部12からの画像解析情報を、ネットワーク40を介して、自動音源環境復元装置30へ送信する。
入力部16は、MMI(Man Machine Interface)やポインティングデバイスなどで構成することができ、具体的には、例えば、マウス、トラックボール、トラックパッド、ジョイスティック、キーボード、コントローラなどが含まれる。この入力部16は、操作者により操作される。これにより、モニタ部13に表示された三次元物体が、その操作に応じて所定の動作を行う。
The communication unit (transmission unit) 15 can be configured by a network board, for example, and transmits the image analysis information from the
The
スピーカ20−1〜20−n(以下、総称して「スピーカ20」という。)は、自動音源環境復元装置30から送られてきた復元音声信号にもとづいて復元音声を出力する。
これらスピーカ20は、図1に示すように、例えば、前面スピーカ20−1、左側スピーカ20−2、右側スピーカ20−3、背面スピーカ20−4として四つ設けることができる。
なお、スピーカ20は、同図においては、四つ設けられているが、四つに限るものではなく、例えば、一つ、二つ、三つまたは五つ以上設けることができる。
Speakers 20-1 to 20-n (hereinafter collectively referred to as “speaker 20”) output restored sound based on the restored sound signal sent from automatic sound source
As shown in FIG. 1, four speakers 20 can be provided as a front speaker 20-1, a left speaker 20-2, a right speaker 20-3, and a rear speaker 20-4, for example.
In addition, although the four speakers 20 are provided in the same figure, it is not restricted to four, For example, one, two, three, or five or more can be provided.
また、複数のスピーカ20は、それぞれ音声の出力方向がほぼ一点(基準点(後述))に集まるように配置される。これにより、その基準点に位置する者(聴音者)は、各スピーカ20から出力された音声を聞き取ることにより、各情報処理装置10でのソフトウエアの実行状況(例えば、ゲームソフトを実行している場合の進捗状況など)を知ることができる。
なお、各スピーカ20から出力された音声を聞き取ることが可能な空間・範囲を「聴音可能空間(音源環境)」という。
Further, the plurality of speakers 20 are arranged so that the output directions of the sounds are gathered at almost one point (reference point (described later)). As a result, a person (listener) located at the reference point listens to the sound output from each speaker 20, thereby executing the software execution status (for example, game software) in each
A space / range in which the sound output from each speaker 20 can be heard is referred to as “audible space (sound source environment)”.
聴音者としては、例えば、ネットワークゲームの進行状況を確認する見学者などが挙げられる。
また、本発明の音源環境復元システムは、例えば、ゲームソフトの展示会場などに設けることができる。この場合、その会場内の一又は二以上のブースにパソコンが複数台設置され、それらパソコンが共通のソフトウエアを実行している場合に、そのブース又は会場内で復元音声を出力するといった用途が可能である。
Examples of the listener include a visitor who confirms the progress of the network game.
The sound source environment restoration system of the present invention can be provided, for example, at a game software exhibition hall. In this case, when multiple PCs are installed in one or more booths in the venue, and those computers are running common software, there is an application such as outputting restored audio in the booth or venue. Is possible.
自動音源環境復元装置30は、通信部31と、記憶部32と、画像情報復元部33と、音声制御部34と、音声出力部35とを備えている。
通信部(受信部)31は、例えばネットワークボードなどで構成することができ、各情報処理装置10の通信部15から送信されてきた画像解析情報を受信する。
The automatic sound source
The communication unit (reception unit) 31 can be configured by a network board, for example, and receives image analysis information transmitted from the
記憶部32は、ハードディスクや外部記憶装置などで構成することができ、自動音源環境復元装置30の有する各種機能を実行させるためのプログラムや、各種情報などを記憶する。
具体例として、例えば、記憶部32には、画像解析情報から三次元物体に関する情報を抽出するためのプログラム、復元音声信号を生成するためのプログラム、画像解析情報、復元音声信号などを記憶する。
The
As a specific example, for example, the
この記憶部32には、図5に示すような画像解析情報を含むテーブル(画像解析情報テーブル)が記憶されている。
画像解析情報テーブルとして記憶される情報には、例えば、情報処理装置10を特定する情報、パソコン部12を特定する情報、モニタ部13に表示された物体画像の種類を示す情報(物体の種類)、物体の移動開始位置を示す情報、物体の移動終了位置を示す情報、操作者の位置を示す情報、操作領域を示す情報、周辺の物体の種類を示す情報などを含めることができる。
なお、画像解析情報テーブルは、図5に示す情報の他、情報処理装置10から送信されてきた画像解析情報に含まれている各種情報の一部又は全部を含めることができる。
The
The information stored as the image analysis information table includes, for example, information for specifying the
The image analysis information table can include a part or all of various information included in the image analysis information transmitted from the
画像情報復元部(音声復元部)33は、各情報処理装置10からの画像解析情報を通信部31から受け取ると(又は、記憶部32に記憶された画像解析情報テーブルを参照すると)、これら受け取った(又は参照した)画像解析情報をそれぞれ解析し、それら画像解析情報に含まれる各音声情報を統合し、聴音可能空間で出力される音声として復元する。
なお、この画像情報復元部33における音声復元処理の具体例については、後述の「自動音源環境復元装置の画像情報復元部における音声復元処理(復元音声信号生成処理)の手順について」において説明する。
When receiving the image analysis information from each
A specific example of the audio restoration process in the image
復元音声制御部34は、増幅回路(例えば、アンプなど)で構成することができ、画像情報復元部33からの(又は、記憶部32から取り出した)復元音声信号の音声信号強度を増幅する。
音声出力部35は、復元音声制御部34からの復元音声信号を各スピーカ20へ送る。これにより、各スピーカ20においては、その復元音声信号にもとづく音声が出力される。
The restored
The
ネットワーク40は、従来公知の任意好適な公衆回線、商業回線又は専用回線を用いることができ、かつ、一又は二以上の回線で構成することができる。
具体的には、例えば、インタネット,イントラネット,LAN(Local Area Network),WAN(Wide Area Network),アナログ電話網,ディジタル電話網(たとえば、ISDN(Integral Service Digital Network)及び無線通信網(たとえば、携帯電話網,PHS(Personal Handyphone System)及び衛星放送など)等で構成することができる。
The network 40 can use any publicly known public line, commercial line, or dedicated line known in the art, and can be composed of one or more lines.
Specifically, for example, the Internet, intranet, LAN (Local Area Network), WAN (Wide Area Network), analog telephone network, digital telephone network (for example, ISDN (Integral Service Digital Network) and wireless communication network (for example, portable network) A telephone network, PHS (Personal Handyphone System), satellite broadcasting, etc.) can be used.
次に、本実施形態の音源環境復元システムの動作(音源環境復元方法)について、図6を参照して説明する。
同図は、音源環境復元方法の処理手順を示す動作手順図である。
同図に示すように、複数の情報処理装置10の各パソコン部12で、共通のソフトウエア(例えば、共通の三次元表示対応ゲーム)が起動される(ステップ10)。これにより、それら情報処理装置10の各モニタ部13には、三次元物体の画像が表示される(ステップ11)。ここで、操作者は、モニタ部13の表示画面を見ながら、入力部16で入力操作して三次元物体を動作させることができる。
Next, the operation (sound source environment restoration method) of the sound source environment restoration system of this embodiment will be described with reference to FIG.
This figure is an operation procedure diagram showing the processing procedure of the sound source environment restoration method.
As shown in the figure, common software (for example, a common 3D display-compatible game) is started in each
各パソコン部12において、三次元物体の動作にともない物体画像情報が生成され(ステップ12)、画像情報解析部14へ送られる。
画像情報解析部14において、受け取った物体画像情報が解析され(ステップ13)、この解析の結果である画像解析情報が記憶部11へ送られ記憶される。また、画像解析情報は、画像情報解析部14から通信部15及びネットワーク40を介して自動音源環境復元装置30へ送信される(ステップ14)。この送信される画像解析情報には、少なくとも音声情報(物体画像に関する音声情報)が含まれており、他に例えば、物体特定情報、物体位置情報、物体移動開始位置情報、物体移動方向情報、物体移動速度情報、物体移動終了位置情報、操作者位置情報、操作領域情報、他物体関係情報などを含めることができる。
また、画像解析情報の送信は、モニタ部13で表示されている三次元物体の動作にともない(入力部16での入力操作にともない)リアルタイムで行われる。
In each
The received object image information is analyzed in the image information analysis unit 14 (step 13), and the image analysis information as a result of this analysis is sent to the storage unit 11 and stored therein. Further, the image analysis information is transmitted from the image
Further, the transmission of the image analysis information is performed in real time according to the operation of the three-dimensional object displayed on the monitor unit 13 (according to the input operation at the input unit 16).
自動音源環境復元装置30の通信部31において、各情報処理装置10から送られてきた画像解析情報が受信される(受信処理、ステップ15)。この受信された画像解析情報は、記憶部32へ送られて記憶されるとともに、画像情報復元部33へ送られる。
画像情報復元部33において、各画像解析情報にそれぞれ含まれている音声情報が統合され、聴音可能空間(音源環境)で出力される音声として復元される(復元音声信号生成処理、音声復元処理、ステップ16)。
The
In the image
ここで、画像情報復元部33においては、各画像解析情報から操作領域情報を取り出し、これら操作領域情報にもとづいて統合領域すなわち共通ソフトウエアの実行領域が設定される。統合領域(実行領域)は、各情報処理装置10のモニタ部13にそれぞれ表示されている操作領域をすべて含んだ領域として設定される。ただし、画像情報復元部33で設定される統合領域と共通ソフトウエアが実際に実行可能な実行領域とは必ずしも一致している必要はなく、統合領域が各操作領域のすべてを含む領域として設定されていればよい。換言すれば、画像情報復元部33は、実行領域を統合領域というかたちで仮定する。
Here, in the image
また、設定された統合領域(実行領域)においては、図7に示すように、任意の箇所に基準点が設定される。
基準点は、統合領域(実行領域)において聴音者が複合音声を聞く位置とされる箇所である。
この基準点は、例えば、統合領域の中心位置に設定することもでき、また、中心位置以外の位置に設定することもできる。また、各スピーカ20との関係で言えば、基準点は、各スピーカ20からの距離がすべて同じとなるような位置に設定してもよく、また、異なるような位置に設定してもよい。ただし、基準点は、統合領域の中心位置に設定することが望ましい。
また、基準点は、本実施形態においては設定箇所を一箇所としてあるが、一箇所に限るものではなく、複数箇所とすることもできる。この場合、設定された複数の基準点のそれぞれについて、復元音声が生成される。
Further, in the set integration area (execution area), as shown in FIG. 7, reference points are set at arbitrary locations.
The reference point is a location where the listener listens to the composite sound in the integrated region (execution region).
For example, the reference point can be set at the center position of the integrated region, or can be set at a position other than the center position. In terms of the relationship with each speaker 20, the reference point may be set at a position where the distance from each speaker 20 is the same, or may be set at a different position. However, it is desirable to set the reference point at the center position of the integrated region.
Moreover, although the reference point has one set location in the present embodiment, the reference point is not limited to one location, and may be a plurality of locations. In this case, a restored sound is generated for each of the set reference points.
そして、画像情報復元部33においては、画像解析情報から物体位置情報や操作領域情報などが取り出され、これら各情報が示す物体や操作領域と基準点との位置関係にもとづいて復元音声信号が生成される。
すなわち、画像情報復元部33においては、物体から発せられた音声が基準点でどのように聞こえるか、つまり、その基準点に位置する聴音者にとっての音声の聞こえ方が算出される。この算出された音声が、聴音可能空間(音源環境)で出力される復元音声となる。
なお、復元音声信号生成処理については、後述の「自動音源環境復元装置の画像情報復元部における音声復元処理(復元音声信号生成処理)の手順について」において説明する。
Then, in the image
That is, the image
The restored audio signal generation process will be described later in “Procedure of audio restoration process (restored audio signal generation process) in the image information restoration unit of the automatic sound source environment restoration apparatus”.
画像情報復元部33で生成された復元音声信号が、記憶部32へ送られ記憶される。また、復元音声信号が、音声制御部34で音声信号強度の増幅がなされ、音声出力部35を介して、各スピーカ20へ出力される(音声出力処理、ステップ17)。
各スピーカ20において、復元音声信号が入力され(ステップ18)、その復元音声信号にもとづいて復元音声が出力される(ステップ19)。
このような処理手順で各スピーカ20から復元音声が出力されることにより、その出力された復元音声により形成される聴音可能空間(音源環境)において、聴音者は、その基準点に立つことで、共通ソフトウエアの実行領域全体から見た各物体画像の動作状況を把握することができる。
The restored audio signal generated by the image
In each speaker 20, a restored voice signal is input (step 18), and a restored voice is output based on the restored voice signal (step 19).
By outputting the restored sound from each speaker 20 in such a processing procedure, the listener can stand at the reference point in the audible space (sound source environment) formed by the output restored sound, It is possible to grasp the operation state of each object image viewed from the entire execution area of the common software.
次に、自動音源環境復元装置の画像情報復元部における音声復元処理(復元音声信号生成処理)の手順について、図8を参照して説明する。
自動音源環境復元装置30の通信部31で各情報処理装置10からの画像解析情報が受信された後、画像情報復元部33においては、その通信部31から画像解析情報が受け取られる(あるいは、記憶部32に記憶された画像解析情報テーブルが参照される)。
その受け取られた(又は参照された)画像解析情報の中から、音声情報、操作領域情報、物体位置情報、物体特定情報、物体移動開始情報、物体移動終了情報、操作者位置情報などが取り出される(あるいは、画像解析情報テーブルからそれら情報が抽出される)(ステップ30)。
Next, the procedure of audio restoration processing (restored audio signal generation processing) in the image information restoration unit of the automatic sound source environment restoration device will be described with reference to FIG.
After the image analysis information from each
Audio information, operation area information, object position information, object position information, object movement start information, object movement end information, operator position information, etc. are extracted from the received (or referred) image analysis information. (Alternatively, the information is extracted from the image analysis information table) (step 30).
次いで、それら取り出された(あるいは、抽出された)各情報の示す物体の位置等が判断・把握される(ステップ31)。具体的には、次の判断等がなされる。
物体位置情報からは、各情報処理装置10のモニタ部13に現在表示されている物体の位置が判断される。
物体特定情報からは、その物体の種類等が判断される。
物体移動開始情報からは、その物体の移動が開始された位置が判断される。
物体移動終了情報からは、その物体の移動が終了した位置が判断される。
操作者位置情報からは、現在起動している各情報処理装置10において、各々の操作者が、ソフトウエアの実行領域のうちどの辺りの領域にいるのかが判断される。
Next, the position or the like of the object indicated by the extracted (or extracted) information is determined and grasped (step 31). Specifically, the following determination is made.
From the object position information, the position of the object currently displayed on the
From the object identification information, the type of the object is determined.
From the object movement start information, the position where the movement of the object is started is determined.
From the object movement end information, the position where the movement of the object is completed is determined.
From the operator position information, it is determined in which area of the software execution area each operator is located in each currently activated
続いて、複数の情報処理装置10から送られてきた操作領域情報のそれぞれにもとづき、統合領域(実行領域)が設定される(ステップ32)。
そして、その統合領域上の一箇所が、基準点として設定される(ステップ33)。
さらに、その基準点と上記各情報の示す物体等の位置との関係にもとづき、基準点で音声がどのように聞こえているかが判断され、その音声が演算処理されて、復元音声信号が生成される(ステップ34)。
Subsequently, an integrated area (execution area) is set based on each of the operation area information sent from the plurality of information processing apparatuses 10 (step 32).
Then, one place on the integrated area is set as a reference point (step 33).
Further, based on the relationship between the reference point and the position of the object or the like indicated by the above information, it is determined how the sound is heard at the reference point, and the sound is subjected to arithmetic processing to generate a restored sound signal. (Step 34).
音声の演算処理の具体例としては、例えば、次の例が挙げられる。
(例1)情報処理装置10−1のパソコン部12−1での制御により、モニタ部13−1に車の画像が表示され、その車が移動する様子が映し出されていたとする。一方、情報処理装置10−2のパソコン部12−2での制御により、モニタ部13−2には樹木が立っている様子が表示されていたとする。モニタ部13−1が表示する操作領域とモニタ部13−2が表示する操作領域とは近接(あるいは、隣同士の領域)であるとすると、モニタ部13−1に表示された車の発する音がモニタ部13−2に表示された樹木で反射することとなる。この反射音が、画像情報復元部33で算出される。
このように、各モニタ部13に表示された一又は二以上の物体に関する情報がそれら情報処理装置10のパソコン部12で生成され、その物体に関する情報にもとづき、画像情報復元部33が、他の一又は二以上の物体における反射音を演算し、復元音声を生成することができる。
As a specific example of the voice calculation process, for example, the following example is given.
(Example 1) It is assumed that an image of a vehicle is displayed on the monitor unit 13-1 and a state in which the vehicle moves is displayed by the control of the personal computer unit 12-1 of the information processing apparatus 10-1. On the other hand, it is assumed that a state where a tree is standing is displayed on the monitor unit 13-2 by the control of the personal computer unit 12-2 of the information processing apparatus 10-2. Assuming that the operation area displayed on the monitor unit 13-1 and the operation area displayed on the monitor unit 13-2 are close (or adjacent to each other), the sound emitted by the vehicle displayed on the monitor unit 13-1 Is reflected by the tree displayed on the monitor unit 13-2. This reflected sound is calculated by the image
As described above, information on one or more objects displayed on each
(例2)情報処理装置10のモニタ部13には、移動物体(自動車)が手前から遠方へ(前方奥へ向かって)移動する様子が表示されたとする。基準点に位置する聴音者には、その表示内容と同様、移動物体が手前から次第に前方奥へ向かって遠のいていく音が聞こえているものと想定される。画像情報復元部33では、その聴音者が聞き取るものと想定される音を復元する。なお、モニタ部13が表示する操作領域が、基準点に位置する聴音者の前方に位置している場合には、聴音者の前方にあるスピーカ20からその復元音声が出力される。
(Example 2) It is assumed that the
(例3)情報処理装置10のモニタ部13には、移動物体(自動車)が遠方(前方の奥の方)から手前へ近づき、さらに後方へ遠のいていく様子が表示されたとする。基準点に位置する聴音者は、遠方(前方の奥の方)から移動体が近づき、そして後方へ遠のいていく音が聞こえているものと想定される。画像情報復元部33では、その聴音者が聞き取るものと想定される音が復元される。なお、モニタ部13が表示する操作領域が、基準点に位置する聴音者の前方に位置している場合には、聴音者の前方にあるスピーカ20からは移動体が遠方(前方の奥の方)から手前に近づいてくる復元音声が、後方にあるスピーカ20からは移動体が近づきさらに後方へ遠のいていく復元音声がそれぞれ出力される。
(Example 3) It is assumed that the
ここでは、主として、物体画像の移動にともなう復元音声の生成について説明したが、その他、例えば、物体の移動速度、移動物体の種類、音の性質、音が伝播する環境などに応じて復元音声を生成することができる。
また、例3に示したように、各スピーカ20からは異なった復元音声を出力させることもできる。
Here, the generation of the restored sound accompanying the movement of the object image has been mainly described, but in addition, for example, the restored voice is selected according to the moving speed of the object, the type of the moving object, the nature of the sound, the environment in which the sound propagates, etc. Can be generated.
Also, as shown in Example 3, different restored sounds can be output from each speaker 20.
[音源環境復元プログラム]
次に、音源環境復元プログラムについて説明する。
上記の実施形態におけるコンピュータ(情報処理装置、自動音源環境復元装置、音源環境復元システム)の音源環境復元機能(復元音声信号を生成し復元音声を出力するための機能)は、各記憶部(例えば、ROM等)に記憶された音源環境復元プログラムにより実現される。
[Sound source environment restoration program]
Next, the sound source environment restoration program will be described.
The sound source environment restoration function (function for generating a restored voice signal and outputting the restored voice) of the computer (information processing apparatus, automatic sound source environment restoration apparatus, sound source environment restoration system) in the above-described embodiment is stored in each storage unit (for example, , ROM, etc.) and realized by a sound source environment restoration program.
音源環境復元プログラムは、コンピュータに読み込まれることにより、コンピュータの各構成要素に指令を送り、所定の処理、たとえば、情報処理装置におけるパソコン部のソフトウエア起動処理、画像生成処理、物体画像情報生成処理、モニタ部の物体画像表示処理、画像情報解析部の物体画像情報解析処理、通信部の画像解析情報送信処理、自動音源環境復元装置における通信部の画像解析情報受信処理、画像情報復元部の復元音声信号生成処理、音声制御部の復元音声増幅処理、音声出力部の復元音声信号出力処理などを行わせる。
これによって、音源環境復元機能は、ソフトウエアである音源環境復元プログラムとハードウエア資源であるコンピュータとが協働した情報処理装置、自動音源環境復元装置、そしてこれらを含む音源環境復元システムにより実現される。
The sound source environment restoration program is read into the computer to send instructions to each component of the computer, and performs predetermined processing, for example, software activation processing of the personal computer unit in the information processing apparatus, image generation processing, object image information generation processing Object image display processing of the monitor unit, object image information analysis processing of the image information analysis unit, image analysis information transmission processing of the communication unit, image analysis information reception processing of the communication unit in the automatic sound source environment restoration device, restoration of the image information restoration unit An audio signal generation process, a restored voice amplification process of the voice control unit, a restored voice signal output process of the voice output unit, and the like are performed.
As a result, the sound source environment restoration function is realized by an information processing device, an automatic sound source environment restoration device, and a sound source environment restoration system including them, in which a sound source environment restoration program that is software and a computer that is a hardware resource cooperate. The
なお、音源環境復元機能を実現するための音源環境復元プログラムは、コンピュータのROMやハードディスクなどに記憶される他、コンピュータ読み取り可能な記録媒体、たとえば、外部記憶装置及び可搬記録媒体等に格納することができる。
外部記憶装置とは、CD−ROM等の記憶媒体を内蔵し、自動音源環境復元装置に外部接続されるメモリ増設装置をいう。一方、可搬記録媒体とは、記録媒体駆動装置(ドライブ装置)に装着でき、かつ、持ち運び可能な記録媒体であって、たとえば、フレキシブルディスク,メモリカード,光磁気ディスク等をいう。
A sound source environment restoration program for realizing the sound source environment restoration function is stored in a computer-readable recording medium, such as an external storage device and a portable recording medium, in addition to being stored in a ROM or a hard disk of a computer. be able to.
The external storage device is a memory expansion device that incorporates a storage medium such as a CD-ROM and is externally connected to the automatic sound source environment restoration device. On the other hand, the portable recording medium is a recording medium that can be mounted on a recording medium driving device (drive device) and is portable, and refers to, for example, a flexible disk, a memory card, a magneto-optical disk, and the like.
そして、記録媒体に記録されたプログラムは、コンピュータのRAMにロードされて、CPUにより実行される。この実行により、上述した本実施形態の自動音源環境復元装置の機能が実現される。
さらに、コンピュータで音源環境復元プログラムをロードする場合、他のコンピュータで保有された音源環境復元プログラムを、通信回線を利用して自己の有するRAMや外部記憶装置にダウンロードすることもできる。このダウンロードされた音源環境復元プログラムも、CPUにより実行され、本実施形態の自動音源環境復元装置の音源環境復元機能を実現する。
The program recorded on the recording medium is loaded into the RAM of the computer and executed by the CPU. By this execution, the function of the automatic sound source environment restoration apparatus of the present embodiment described above is realized.
Furthermore, when the sound source environment restoration program is loaded by the computer, the sound source environment restoration program held by another computer can be downloaded to its own RAM or an external storage device using a communication line. The downloaded sound source environment restoration program is also executed by the CPU to realize the sound source environment restoration function of the automatic sound source environment restoration device of the present embodiment.
以上、本発明の音源環境復元システム、自動音源環境復元装置、音源環境復元方法及び音源環境復元プログラムの好ましい実施形態について説明したが、本発明に係る音源環境復元システム、自動音源環境復元装置、音源環境復元方法及び音源環境復元プログラムは上述した実施形態にのみ限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。 The preferred embodiments of the sound source environment restoration system, automatic sound source environment restoration device, sound source environment restoration method, and sound source environment restoration program of the present invention have been described above, but the sound source environment restoration system, automatic sound source environment restoration device, and sound source according to the present invention have been described. It goes without saying that the environment restoration method and the sound source environment restoration program are not limited to the above-described embodiments, and various modifications can be made within the scope of the present invention.
例えば、上述した実施形態では、聴音可能空間にスピーカが複数備えられた構成としてあるが、複数のスピーカの設置に限るものではなく、例えば、モニタ部を備えて統合領域の画像を表示させることもできる。これにより、聴音可能空間内に位置する聴音者は、各スピーカから出力された復元音声だけでなく、そのモニタ部に表示された画像からも、統合領域(実行領域)全体から見た各物体画像の動作状況を把握できる。
この場合、自動音源環境復元装置30の画像情報復元部33においては、各情報処理装置10のモニタ部13に表示された操作領域の各間を繋いて連続領域とする補間処理を行い、処理後の映像をモニタ部に出力させる。モニタ部では、設置されたコントローラを任意の方向にずらすことにより、任意の方向の画像が表示される。
For example, in the embodiment described above, a plurality of speakers are provided in the audible space. However, the present invention is not limited to the installation of a plurality of speakers. For example, the monitor unit may be provided to display an image of the integrated region. it can. As a result, the listener who is located in the audible space can see each object image viewed from the entire integrated area (execution area) not only from the restored sound output from each speaker but also from the image displayed on the monitor unit. You can grasp the operating status of.
In this case, the image
また、上記実施形態において、自動音源環境復元装置は、物体画像情報に含まれる各種情報を各情報処理装置から受信して収集することとしているが、各情報処理装置から受信・収集することに限るものではなく、例えば、自動音源環境復元装置自らがネットワークを介してソフトウエアをダウンロードし、音声情報や実行領域などを抽出するようにすることもできる。 In the above embodiment, the automatic sound source environment restoration device receives and collects various information included in object image information from each information processing device, but is limited to receiving and collecting from each information processing device. For example, the automatic sound source environment restoration device itself can download software via a network and extract voice information, an execution area, and the like.
本発明は、ソフトウエアの実行により画面表示された物体画像の動作に合わせて出力される音声の制御に関する発明であるため、画像表示手段と音声出力手段とを有するシステムや装置などに利用可能である。 Since the present invention relates to the control of sound output in accordance with the operation of an object image displayed on the screen by execution of software, the present invention can be used for a system or apparatus having image display means and sound output means. is there.
1 音源環境復元システム
10 情報処理装置
12 パソコン部
13 モニタ部
14 画像情報解析部
15 通信部
20 スピーカ
30 自動音源環境復元装置
31 画像情報復元部
35 音声出力部
DESCRIPTION OF
Claims (7)
各前記物体画像に関する音声を出力して聴音可能空間を形成する一又は二以上のスピーカと、
各前記物体画像に関する音声情報を前記複数の情報処理装置から受信し、この受信した複数の音声情報を統合し、前記聴音可能空間で出力される音声として復元し、この復元音声を各前記スピーカに出力させる自動音源環境復元装置とを備えた
ことを特徴とする音源環境復元システム。 A plurality of information processing devices having monitor units for displaying object images;
One or two or more speakers that output sound related to each of the object images to form an audible space;
Audio information related to each object image is received from the plurality of information processing devices, the received audio information is integrated, restored as audio output in the audible space, and the restored audio is sent to each speaker. A sound source environment restoration system comprising an automatic sound source environment restoration device for outputting.
前記自動音源環境復元装置が、
前記実行領域中の一箇所を基準点とし、
各前記情報処理装置から、前記物体画像に関する音声情報とともに、前記物体に関する位置情報及び/又は前記操作領域に関する情報を受信し、これら受信した各情報が示す前記物体及び/又は前記操作領域と前記基準点との位置関係にもとづいて前記復元音声を生成する
ことを特徴とする請求項1記載の音源環境復元システム。 Each of the information processing apparatuses executes common software, and performs a process of operating the object image using an operation area as a partial area of the execution area of the software,
The automatic sound source environment restoration device is
One point in the execution area as a reference point,
The position information and / or the operation area information related to the object is received from each of the information processing devices together with the audio information related to the object image, and the object and / or the operation area and the reference indicated by the received information are received. The sound source environment restoration system according to claim 1, wherein the restoration sound is generated based on a positional relationship with a point.
ことを特徴とする請求項2記載の音源環境復元システム。 The sound source environment restoration system according to claim 2, wherein the automatic sound source environment restoration device sets the execution area based on information on each operation area received from each information processing apparatus.
前記自動音源環境復元装置が、受信した前記一又は二以上の物体に関する情報にもとづいて、前記一又は二以上の物体における反射音を演算し前記復元音声を生成する
ことを特徴とする請求項1〜3のいずれかに記載の音源環境復元システム。 Each of the information processing devices generates information on one or more objects displayed on the monitor unit,
2. The automatic sound source environment restoration device calculates a reflected sound from the one or more objects based on the received information on the one or more objects, and generates the restored sound. The sound source environment restoration system according to any one of?
複数の前記音声情報を統合し、一又は二以上のスピーカからの出力音により形成される聴音可能空間での出力音声として復元する音声復元部と、
復元音声を各前記スピーカへ送って出力させる音声出力部とを備えた
ことを特徴とする自動音源環境復元装置。 A receiving unit that receives audio information about the object image displayed on the monitor unit from a plurality of information processing devices;
A sound restoration unit that integrates a plurality of the sound information and restores the sound as an output sound in an audible space formed by output sound from one or more speakers;
An automatic sound source environment restoration apparatus comprising: an audio output unit that sends restored audio to each speaker and outputs the audio.
複数の前記音声情報を統合し、一又は二以上のスピーカからの出力音により形成される聴音可能空間での出力音声として復元する音声復元処理と、
復元音声を各前記スピーカへ送って出力させる音声出力処理とを有した
ことを特徴とする音源環境復元方法。 A reception process for receiving audio information related to the object image displayed on the monitor unit from a plurality of information processing devices;
A sound restoration process for integrating a plurality of the sound information and restoring the sound as an output sound in an audible space formed by output sound from one or more speakers;
A sound source environment restoring method comprising: sound output processing for sending restored sound to each of the speakers and outputting the same.
複数の前記音声情報を統合し、一又は二以上のスピーカからの出力音により形成される聴音可能空間での出力音声として復元する音声復元処理と、
復元音声を各前記スピーカへ送って出力させる音声出力処理とを自動音源環境復元装置に実行させる
ことを特徴とする音源環境復元プログラム。 A reception process for receiving audio information related to the object image displayed on the monitor unit from a plurality of information processing devices;
A sound restoration process for integrating a plurality of the sound information and restoring the sound as an output sound in an audible space formed by output sound from one or more speakers;
A sound source environment restoration program characterized by causing an automatic sound source environment restoration device to execute sound output processing for sending restored sound to each speaker for output.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004179220A JP2006005618A (en) | 2004-06-17 | 2004-06-17 | Sound source environment restoration system, automatic sound source environment restoring device, and method and program for sound source environment restoration |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004179220A JP2006005618A (en) | 2004-06-17 | 2004-06-17 | Sound source environment restoration system, automatic sound source environment restoring device, and method and program for sound source environment restoration |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2006005618A true JP2006005618A (en) | 2006-01-05 |
Family
ID=35773634
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004179220A Pending JP2006005618A (en) | 2004-06-17 | 2004-06-17 | Sound source environment restoration system, automatic sound source environment restoring device, and method and program for sound source environment restoration |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2006005618A (en) |
-
2004
- 2004-06-17 JP JP2004179220A patent/JP2006005618A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN118873933B (en) | Virtual and real object recording in mixed reality devices | |
| JP3515127B2 (en) | Image processing apparatus, game machine, image display method, and recording medium | |
| EP3750608B1 (en) | Sound reproduction method, storage medium and electronic device | |
| US7760248B2 (en) | Selective sound source listening in conjunction with computer interactive processing | |
| JP4921550B2 (en) | How to give emotional features to computer-generated avatars during gameplay | |
| CN101132839B (en) | Selective sound source monitoring combined with computer interactive processing | |
| US7113610B1 (en) | Virtual sound source positioning | |
| US8170222B2 (en) | Augmented reality enhanced audio | |
| JP6055657B2 (en) | GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM | |
| JP2015143987A (en) | In-vehicle gesture interaction space audio system | |
| CN111246227A (en) | Bullet screen publishing method and equipment | |
| CN107785027B (en) | Audio processing method and electronic equipment | |
| HK1250680A1 (en) | A method and system of creating a network to facilitate a multiplayer game | |
| EP1795240B1 (en) | Game machine, game machine control method, information recording medium, and program | |
| US20140079230A1 (en) | Sound output system, information processing apparatus, computer-readable non-transitory storage medium having information processing program stored therein, and sound output control method | |
| CN114177614A (en) | Interface display method, device, terminal and storage medium | |
| CN112717395A (en) | Audio binding method, device, equipment and storage medium | |
| JP2002373350A (en) | Image processing device | |
| JP2006005618A (en) | Sound source environment restoration system, automatic sound source environment restoring device, and method and program for sound source environment restoration | |
| CN115531878B (en) | Game voice playing method and device, storage medium and electronic equipment | |
| JP7773059B2 (en) | program and sound control device | |
| JP2022033546A (en) | Audio information generation program, audio reproduction program, and audio reproduction device | |
| US20250008195A1 (en) | Information processing apparatus, information processing method, and program | |
| KR101615382B1 (en) | System for providing three dimensional audio signal in game apparatus | |
| HK40042504A (en) | Audio binding method, device, equipment and storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070522 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090226 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090303 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090507 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090602 |