[go: up one dir, main page]

JP2010067002A - Information processing apparatus, method, and program - Google Patents

Information processing apparatus, method, and program Download PDF

Info

Publication number
JP2010067002A
JP2010067002A JP2008232623A JP2008232623A JP2010067002A JP 2010067002 A JP2010067002 A JP 2010067002A JP 2008232623 A JP2008232623 A JP 2008232623A JP 2008232623 A JP2008232623 A JP 2008232623A JP 2010067002 A JP2010067002 A JP 2010067002A
Authority
JP
Japan
Prior art keywords
image
user
output
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008232623A
Other languages
Japanese (ja)
Inventor
Tsuyoshi Teraoka
剛志 寺岡
Hiroshi Yamaji
啓 山路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008232623A priority Critical patent/JP2010067002A/en
Publication of JP2010067002A publication Critical patent/JP2010067002A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】ユーザがあたかも仮想空間の世界に入り込み、仮想空間内のキャラクタと一緒に動作しているような画像の提供。
【解決手段】 出力用画像作成手段31は、操作判定手段16の操作判定結果に応じてユーザ被写体の位置を推測し(S3)、カメラ200から受信した画像からユーザ被写体の全部または一部を含む部分画像を抽出する(S4)。また、出力用画像作成手段20は、操作判定手段16の操作判定から、操作部5の振り回し動作の検出時のボールオブジェクトおよびバットオブジェクトの位置を決定する(S5)。さらに、出力用画像作成手段20は、決定したキャラクタおよびバットオブジェクトの位置に従い、出力用基礎背景画像に、ボールオブジェクトおよびバットオブジェクトを合成し、出力用画像を作成する(S7)。
【選択図】 図8
Provided is an image in which a user enters the world of a virtual space and works with a character in the virtual space.
An output image creation unit 31 estimates a position of a user subject according to an operation determination result of an operation determination unit 16 (S3), and includes all or a part of the user subject from an image received from a camera 200. A partial image is extracted (S4). Further, the output image creation means 20 determines the positions of the ball object and the bat object when the swinging motion of the operation unit 5 is detected from the operation determination of the operation determination means 16 (S5). Further, the output image creation means 20 creates an output image by synthesizing the ball object and the bat object with the basic background image for output in accordance with the determined positions of the character and the bat object (S7).
[Selection] Figure 8

Description

本発明は、ユーザの動作に応じて各種情報処理を行う装置、方法およびプログラムに関する。   The present invention relates to an apparatus, a method, and a program for performing various types of information processing according to user operations.

特許文献1、特許文献2では、ゲームの成績などをユーザの顔写真付きでプリントする。特許文献3は、映像オブジェクトの軌跡画像合成装置に関し、ゴルフ中継などにおいてボールの軌跡を映像に合成する。   In Patent Literature 1 and Patent Literature 2, game results and the like are printed with a user's face photo. Patent Document 3 relates to a trajectory image synthesizing apparatus for video objects, and synthesizes a trajectory of a ball with video in a golf relay or the like.

その他、本願発明に関係する先行技術としては、特許文献4〜7が挙げられる。特許文献4は、スイングを測定するシステムを開示している。特許文献5は、野球ゲームのキャラクタの打撃動作をリアルに表示する技術を開示している。特許文献6は、画像から人物被写体を抽出する技術を開示している。特許文献7は、被写体の顔抽出の技術を開示している。
特開2006−86823号公報 特開2000−138858号公報 特開2006−287911号公報 特開2002−210055号公報 特開2001−204963号公報 特開2006−311505号公報 特開2008−42801号公報
In addition, patent documents 4-7 are mentioned as prior art relevant to this invention. Patent Document 4 discloses a system for measuring a swing. Patent Document 5 discloses a technique for realistically displaying a batting action of a baseball game character. Patent Document 6 discloses a technique for extracting a human subject from an image. Patent Document 7 discloses a technique for extracting a subject's face.
JP 2006-86823 A JP 2000-138858 A JP 2006-287911 A Japanese Patent Laid-Open No. 2002-210055 JP 2001-204963 A JP 2006-311505 A JP 2008-42801 A

特許文献1・2では、ユーザの顔写真と組み合わせてゲーム中の一場面を保存・プリントする記載はあるが、動的な操作を行うユーザを的確なタイミングで撮像してプリントできるとは限らない。また、ゲーム画面にユーザの顔を並べてプリントするだけでは、ユーザがそのゲームを実際にプレーしていたという臨場感を与えることができない。さらに、、ユーザの顔以外に、動作する手や足を含んだ被写体部分画像を取り出してプリントすることもできない。特許文献3では、映像から動きを推測して画像を合成するが、撮影カメラの動きを利用しなくてはならないという制約がある。   In Patent Documents 1 and 2, there is a description that a scene in a game is stored and printed in combination with a user's face photograph, but it is not always possible to capture and print a user who performs a dynamic operation at an accurate timing. . Also, simply printing the user's face side by side on the game screen cannot give a sense of realism that the user was actually playing the game. In addition to the user's face, it is also impossible to take out and print a subject partial image including an operating hand or foot. In Patent Document 3, a motion is estimated from a video and an image is synthesized. However, there is a restriction that a motion of a photographing camera must be used.

本発明は、ユーザがあたかも仮想空間の世界に入り込み、仮想空間内のキャラクタと一緒に動作しているような画像の提供を可能にする。また好ましくは、本発明は、撮影者が画像撮影に際して取る動作に基づいて、より高精度に撮影者の意図を画像処理に反映可能にする。   The present invention makes it possible to provide an image as if a user has entered the world of a virtual space and is working with a character in the virtual space. Further preferably, the present invention enables the photographer's intention to be reflected in the image processing with higher accuracy based on an action taken by the photographer when photographing an image.

本発明に係る情報処理装置は、ユーザの動作を検出する動作検出部と、動作検出部の検出したユーザの動作に基づいて、仮想空間上のシナリオに沿った場面の進行を制御する進行管理部と、進行管理部が進行を制御することが可能な場面に応じた出力用基礎背景画像を格納する格納部と、所定の撮像装置に撮像の開始もしくは終了を指示する撮像指示部と、撮像指示部が撮像の開始を指示した時点で進行管理部の制御する場面に対応する出力用基礎背景画像を、格納部から抽出する画像抽出部と、撮像指示部の指示に応じて撮像装置が取得した画像を、撮像装置から入力する画像入力部と、画像入力部の入力した画像の一部または全部と、画像抽出部の抽出した出力用基礎背景画像とを合成することで、出力用画像を作成する出力用画像作成部と、を備える。   An information processing apparatus according to the present invention includes a motion detection unit that detects a user's motion, and a progress management unit that controls the progress of a scene according to a scenario in a virtual space based on the user's motion detected by the motion detection unit A storage unit that stores a basic background image for output according to a scene in which the progress management unit can control the progress, an imaging instruction unit that instructs a predetermined imaging device to start or end imaging, and an imaging instruction An image extraction unit that extracts a basic background image for output corresponding to a scene controlled by the progress management unit at the time when the unit instructs the start of imaging is acquired by the imaging device in response to an instruction from the storage unit and the imaging instruction unit An image for output is created by combining an image input unit that inputs an image from the imaging device, a part or all of the image input by the image input unit, and the basic background image for output extracted by the image extraction unit. Create output image And, equipped with a.

この発明によると、ユーザの動作に応じてシナリオが進行中、所望のタイミングで撮像が指示されると、そのときのユーザを被写体として撮像を指示し、得られた画像を、撮像が指示された時点での場面と合成して出力用画像を作成する。これにより、ユーザがあたかも仮想空間の世界に入り込み、仮想空間内のキャラクタと一緒に動作しているような画像ができあがる。   According to the present invention, when a shooting is instructed at a desired timing while a scenario is in progress according to the user's operation, the user is instructed to take an image at that time, and the obtained image is instructed to take an image. Create an output image by combining with the scene at the time. As a result, an image is created as if the user has entered the virtual space world and is moving with the character in the virtual space.

ユーザの操作位置を検出する位置検出部を備え、出力用画像作成部は、位置検出部の検出したユーザの操作位置に応じた出力用基礎背景画像上の位置に画像入力部の入力した画像の一部または全部を合成する。   A position detection unit that detects a user's operation position, and the output image creation unit outputs the image input by the image input unit at a position on the basic output image for output corresponding to the user's operation position detected by the position detection unit. Synthesize some or all.

こうすると、仮想空間内のキャラクタと同じような位置に正確にユーザの被写体画像を合成できる。   In this way, the user's subject image can be accurately synthesized at the same position as the character in the virtual space.

出力用基礎背景画像は、仮想空間における所望の視点からユーザキャラクタを捉えた画像を含む。   The output basic background image includes an image in which the user character is captured from a desired viewpoint in the virtual space.

出力用基礎背景画像は、仮想空間において、表示用映像とは逆の視点からユーザを捉えた画像を含む。   The basic output background image includes an image that captures the user from a viewpoint opposite to the display video in the virtual space.

動作検出部の検出したユーザの動作に基づいて、場面の進行に関係する所定の動作が開始もしくは終了したか否かを判定する動作判定部と、を備え、撮像指示部は、動作判定部が、ゲ場面の進行に関係する所定の動作が開始もしくは終了したと判断したことに応じ、撮像装置に撮像の開始もしくは終了を指示する。   An operation determining unit that determines whether or not a predetermined operation related to the progress of the scene has started or ended based on the user's operation detected by the operation detecting unit. In response to determining that a predetermined operation related to the progress of the scene has started or ended, the imaging apparatus is instructed to start or end imaging.

こうすると、ユーザの特定の動作のタイミングに合わせて撮影を開始または終了できる。   In this way, it is possible to start or end shooting in accordance with the timing of the specific operation of the user.

動作検出部の検出したユーザの動作および/または位置検出部の検出したユーザの操作位置に基づいて、画像入力部の入力した画像から、ユーザの被写体画像を抽出するユーザ抽出部を備え、出力用画像作成部は、ユーザ抽出部の抽出したユーザの被写体画像と画像抽出部の抽出した出力用基礎背景画像とを合成し、出力用画像を作成する。   A user extraction unit that extracts a subject image of a user from an image input by an image input unit based on a user's operation detected by the motion detection unit and / or a user operation position detected by the position detection unit. The image creating unit synthesizes the user's subject image extracted by the user extracting unit and the output basic background image extracted by the image extracting unit to create an output image.

こうすると、ユーザの被写体画像を正確に抽出できる。   In this way, the user's subject image can be accurately extracted.

撮像指示部は、動作検出部の検出したユーザの動作に応じた撮影間隔および/またはシャッタスピードの設定を撮像装置に指示する。   The imaging instruction unit instructs the imaging apparatus to set a shooting interval and / or a shutter speed according to the user action detected by the action detection unit.

こうすると、ユーザの動作にあった撮影間隔および/またはシャッタスピードを設定できる。   In this way, it is possible to set a shooting interval and / or a shutter speed suitable for the user's operation.

撮像指示部は、ユーザ以外のユーザに対応する操作装置への入力操作に応じて撮像装置に撮像の開始もしくは終了を指示する。   The imaging instruction unit instructs the imaging device to start or end imaging in response to an input operation to the operating device corresponding to a user other than the user.

こうすると、他のユーザがユーザの表情や動作を見ながら任意のタイミングでユーザを撮像できる。   In this way, another user can capture an image of the user at an arbitrary timing while watching the user's facial expressions and actions.

出力用画像作成部の作成した出力用画像を所望の電子機器に出力する出力部を備える。   An output unit is provided that outputs the output image created by the output image creation unit to a desired electronic device.

本発明に係る情報処理方法は、コンピュータが、ユーザの動作を検出するステップと、検出したユーザの動作に基づいて、仮想空間上のシナリオに沿った場面の進行を制御するステップと、進行を制御することが可能な場面に応じた出力用基礎背景画像を格納するステップと、所定の撮像装置に撮像の開始もしくは終了を指示するステップと、撮像の開始を指示した時点で制御されている場面に対応する出力用基礎背景画像を抽出するステップと、撮像開始の指示に応じて撮像装置が取得した画像を、撮像装置から入力するステップと、入力した画像の一部または全部と、抽出した出力用基礎背景画像とを合成することで、出力用画像を作成するステップと、を実行する。   The information processing method according to the present invention includes a step in which a computer detects a user's action, a step of controlling the progress of a scene according to a scenario in a virtual space based on the detected user's action, and a control of the progress. A step of storing a basic background image for output corresponding to a scene that can be performed, a step of instructing a predetermined imaging device to start or end imaging, and a scene controlled at the time of instructing the start of imaging A step of extracting a corresponding output basic background image, a step of inputting an image acquired by the imaging device in response to an instruction to start imaging, a part or all of the input image, and an output for extraction Generating an output image by combining the basic background image.

本発明に係る情報処理プログラムは、ユーザの動作を検出するステップと、検出したユーザの動作に基づいて、仮想空間上のシナリオに沿った場面の進行を制御するステップと、進行を制御することが可能な場面に応じた出力用基礎背景画像を格納するステップと、所定の撮像装置に撮像の開始もしくは終了を指示するステップと、撮像の開始を指示した時点で制御されている場面に対応する出力用基礎背景画像を抽出するステップと、撮像開始の指示に応じて撮像装置が取得した画像を、撮像装置から入力するステップと、入力した画像の一部または全部と、抽出した出力用基礎背景画像とを合成することで、出力用画像を作成するステップと、コンピュータに実行させる。   The information processing program according to the present invention is capable of detecting a user's action, controlling a progress of a scene according to a scenario in a virtual space, and controlling the progress based on the detected user's action. A step of storing a basic background image for output according to a possible scene, a step of instructing a predetermined imaging device to start or end imaging, and an output corresponding to a scene controlled at the time of instructing the start of imaging A step of extracting a basic background image for use, a step of inputting an image acquired by the imaging device in response to an instruction to start imaging, a part or all of the input image, and an extracted basic background image for output Are made to be executed by a computer and a step of creating an output image.

この発明によると、ユーザの動作に応じてシナリオが進行中、所望のタイミングで撮像が指示されると、そのときのユーザを被写体として撮像を指示し、得られた画像を、撮像が指示された時点での場面と合成して出力用画像を作成する。これにより、ユーザがあたかも仮想空間の世界に入り込み、仮想空間内のキャラクタと一緒に動作しているような画像ができあがる。   According to the present invention, when a shooting is instructed at a desired timing while a scenario is in progress according to the user's operation, the user is instructed to take an image at that time, and the obtained image is instructed to take an image. Create an output image by combining with the scene at the time. As a result, an image is created as if the user has entered the virtual space world and is moving with the character in the virtual space.

<第1実施形態>
図1は本発明の好ましい実施形態に係る本実施形態例に係る映像処理システム1000の外観を示す。映像処理システム1000は、映像処理装置100と、操作部5と、カメラ200とを備えている。操作部5は、Bluetooth、赤外線通信などにより映像処理装置100と接続されている。操作部5は、操作性の向上の観点からは、映像処理装置100とは独立した機器であり、映像処理装置100とは無線接続されることが好ましいが、有線で接続されていても問題ない。
<First Embodiment>
FIG. 1 shows the appearance of a video processing system 1000 according to this embodiment according to a preferred embodiment of the present invention. The video processing system 1000 includes a video processing device 100, an operation unit 5, and a camera 200. The operation unit 5 is connected to the video processing apparatus 100 via Bluetooth, infrared communication, or the like. The operation unit 5 is a device independent of the video processing device 100 from the viewpoint of improving operability, and is preferably wirelessly connected to the video processing device 100, but there is no problem even if it is connected by wire. .

ユーザPの近傍には、カメラ200が設置されている。カメラ200はユーザPを被写体として捉えることができればどこに設置してもよい。例えばモニタ23筐体の上に置いてユーザを正面から捉えたり、ユーザの左右や背面においてユーザを横からあるいは後ろから捉えてもよい。カメラ200と映像処理装置100とはUSBや無線LANなど各種の通信手段により接続されており、カメラ200の撮影タイミングは映像処理装置100のCPU10が通信部4を介して指示される。カメラ200の撮影した画像は映像処理装置100の通信部4に送信され、RAM42に保存される。   A camera 200 is installed in the vicinity of the user P. The camera 200 may be installed anywhere as long as the user P can be captured as a subject. For example, the user may be placed on the monitor 23 case to catch the user from the front, or the user may be seen from the side or the back on the left, right, or back of the user. The camera 200 and the video processing device 100 are connected by various communication means such as USB and wireless LAN, and the CPU 10 of the video processing device 100 is instructed by the CPU 10 of the video processing device 100 for the shooting timing of the camera 200. An image captured by the camera 200 is transmitted to the communication unit 4 of the video processing apparatus 100 and stored in the RAM 42.

説明の簡略のため、カメラ200の設置位置は被写体を正面から捉えるものとするが、ユーザがこれ以外の位置から被写体を捉えたい場合は、その位置を操作部5あるいは非ユーザ操作部6から指定できるようにしてもよい。   For simplification of explanation, the installation position of the camera 200 captures the subject from the front. However, if the user wants to capture the subject from other positions, the position is designated from the operation unit 5 or the non-user operation unit 6. You may be able to do it.

モニタ23の左右には映像処理装置100から送信されたBGMや効果音の音声信号を出力するためのスピーカが取り付けられている。   Speakers for outputting BGM and sound signals of sound effects transmitted from the video processing apparatus 100 are attached to the left and right sides of the monitor 23.

図2は映像処理装置100のブロック図である。この映像処理装置100は、CPU10、ROM41及びRAM42を有している。CPU10は、ROM41に記録されているOSや映像処理プログラムとRAM42に記憶される映像処理用データなどに基づいて、後述する複数の機能を実現する。ROM41は、映像処理システム1000の各部に基本動作を行わせるためのOSを格納している。RAM42は、半導体メモリ4から必要に応じて読み出された映像処理用各種データを一時的に保存するなどのワークエリアとして使用される。半導体メモリ4は着脱可能でもよく、異なる種類の映像処理プログラムを入れ換えて様々な映像、例えば、テレビゲームや仮想世界の体験を楽しめるようにしてもよい。あるいは、CDROMドライブなどの各種媒体読み取り装置を映像処理装置100に設け、映像処理プログラムは、読み取り装置に設置されたCDROMからRAM42にロードして実行してもよい。あるいは、映像処理装置100がインターネットなどの各種ネットワークを経由して接続した所定のサーバから映像処理プログラムをRAM42にダウンロードして実行してもよい。本実施形態では、映像の種類は野球ゲームとする。ただし、テニスやゴルフといった物でボールを打撃する種類のゲームにも応用可能である。   FIG. 2 is a block diagram of the video processing apparatus 100. The video processing apparatus 100 includes a CPU 10, a ROM 41, and a RAM 42. The CPU 10 implements a plurality of functions to be described later based on the OS and video processing program recorded in the ROM 41 and video processing data stored in the RAM 42. The ROM 41 stores an OS for causing each unit of the video processing system 1000 to perform basic operations. The RAM 42 is used as a work area for temporarily storing various video processing data read from the semiconductor memory 4 as necessary. The semiconductor memory 4 may be detachable, and different types of video processing programs may be exchanged so that various videos, for example, a video game or a virtual world experience can be enjoyed. Alternatively, various media reading devices such as a CDROM drive may be provided in the video processing device 100, and the video processing program may be loaded from the CD ROM installed in the reading device to the RAM 42 and executed. Alternatively, the video processing apparatus 100 may download the video processing program from a predetermined server connected via various networks such as the Internet to the RAM 42 and execute it. In this embodiment, the type of video is a baseball game. However, it can also be applied to a game of hitting a ball with something such as tennis or golf.

映像処理装置100は、GPU(Graphics Processing Unit)21、フレームバッファ22を有している。GPU21は、CPU10の計算結果に基づいて、ポリゴンの組合せからなるCG画像をフレームバッファ22に書き込む。GPU21により描画処理されたCG画像は、フレームバッファ22に一時的に記録される。フレームバッファ22に記録されたCG画像は、モニタ23に出力されて表示される。GPU21による描画処理及びフレームバッファ22への記録が連続的に行われることにより、動画要素を含むCG画像、たとえばキャラクタの動きがモニタ23に表示される。   The video processing apparatus 100 includes a GPU (Graphics Processing Unit) 21 and a frame buffer 22. The GPU 21 writes a CG image composed of a combination of polygons to the frame buffer 22 based on the calculation result of the CPU 10. The CG image drawn by the GPU 21 is temporarily recorded in the frame buffer 22. The CG image recorded in the frame buffer 22 is output to the monitor 23 and displayed. By continuously performing drawing processing by the GPU 21 and recording in the frame buffer 22, a CG image including a moving image element, for example, a motion of a character is displayed on the monitor 23.

また映像処理装置100は、SPU(Sound Processing Unit)31を備えている。SPU31は、半導体メモリ4(またはCDROMやネットワークダウンロードサーバなどの代替物)に記録されている音楽データや各種効果音データなどの音声データに基づいて、音楽や効果音のアナログ信号をディスプレイ23に出力し、ディスプレイ23のスピーカでこれを再生する。   The video processing apparatus 100 also includes an SPU (Sound Processing Unit) 31. The SPU 31 outputs analog signals of music and sound effects to the display 23 based on sound data such as music data and various sound effect data recorded in the semiconductor memory 4 (or an alternative such as a CDROM or a network download server). Then, this is reproduced by the speaker of the display 23.

通信部4は、操作部5からの操作情報を受信する。操作部5は、キャラクタないしキャラクタのゲーム空間や仮想世界その他の仮想空間での仮想的な取扱物であるバット、ゴルフクラブ、ラケットなどのオブジェクトを仮想空間で動作させる指示の入力手段である。ただし、操作部5はオブジェクトの仮想操作物である必要はなく、単純にユーザの動作(足踏みなど)を検出する装置としても機能できる。   The communication unit 4 receives operation information from the operation unit 5. The operation unit 5 is an instruction input unit for operating an object such as a bat, a golf club, or a racket, which is a virtual handling item in a character or a character game space, a virtual world, or other virtual space, in the virtual space. However, the operation unit 5 does not have to be a virtual operation object, and can function as a device that simply detects a user's action (stepping or the like).

操作部5は、動作検出部51と、位置検出部52と、コントローラ53とを有している。動作検出部51は、操作部5に蓄えられた様々な動作、例えば持ち上げる、下ろす、振る、回す、傾ける、ひねるなどの動作をリアルタイムで検出しCPU10に出力する。具体的には、動作検出部は、3軸(X、Y、Z軸)の加速度センサ701と、仰角、方位角の角速度・角加速度を検出する回転センサを備えている。ユーザ動作の検出周期は任意であるが、短いとそれだけ瞬間的な動作を連続的に観察でき、公知のスイング測定システム(例えば特開2002−210055号公報)と同等のサンプリングレートが確保できれば理想的である。   The operation unit 5 includes an operation detection unit 51, a position detection unit 52, and a controller 53. The operation detection unit 51 detects various operations stored in the operation unit 5, such as operations such as lifting, lowering, shaking, turning, tilting, and twisting in real time, and outputs them to the CPU 10. Specifically, the motion detection unit includes a triaxial (X, Y, Z axis) acceleration sensor 701 and a rotation sensor that detects angular velocity and angular acceleration of elevation angle and azimuth angle. The detection period of the user movement is arbitrary, but if it is short, it is ideal if the instantaneous movement can be continuously observed and a sampling rate equivalent to that of a known swing measurement system (for example, Japanese Patent Laid-Open No. 2002-210055) can be secured. It is.

位置検出部52は、ユーザがモニタ23に映し出された画面における指定位置を検出するための手段である。位置検出部52は、CMOSセンサなどからなる。位置検出部52からCPU10に送出される位置情報は、例えばモニタ23の画面上に設定された実空間の2次元以上の座標で表される。位置を連続的に指定すれば、動作の軌跡が指定できる。これにより、画面に映し出されたボールキャラクタに対応するバットのスイング位置を指定できる。   The position detection unit 52 is a means for the user to detect a designated position on the screen displayed on the monitor 23. The position detection unit 52 includes a CMOS sensor or the like. The position information sent from the position detection unit 52 to the CPU 10 is expressed by, for example, two-dimensional or more coordinates in the real space set on the screen of the monitor 23. If the position is continuously specified, the trajectory of the operation can be specified. Thereby, the swing position of the bat corresponding to the ball character displayed on the screen can be designated.

図2にはCPU10がROM41のプログラムに従って行う処理単位が示されている。CPU10の処理単位としては、撮像制御手段11、投球制御手段13、当たり判定手段14、音出力制御手段15、操作判定手段16、状況判定手段17、オブジェクト表示制御手段18、出力用画像作成手段31がある。   FIG. 2 shows a processing unit performed by the CPU 10 according to the program in the ROM 41. The processing units of the CPU 10 include imaging control means 11, throwing control means 13, hit determination means 14, sound output control means 15, operation determination means 16, situation determination means 17, object display control means 18, and output image creation means 31. There is.

撮像制御手段11は、通信部4を介して接続されたカメラ200に対し、撮像の開始または終了のタイミングを指示し、カメラ200はこの指示に応じて撮像を開始または終了する。   The imaging control means 11 instructs the camera 200 connected via the communication unit 4 to start or end the imaging, and the camera 200 starts or ends imaging in response to this instruction.

投球制御手段13は、ゲーム空間の投手キャラクタから打者キャラクタに対する投球を制御する。投手キャラクタは、NPCやCPUなどといわれる人間に操作されないユーザであり、投球制御手段13がその動作を制御する。制御の内容は、投球の開始タイミング、球種、スピード、コントロールなどが含まれる。   The pitch control means 13 controls the pitch from the pitcher character in the game space to the batter character. The pitcher character is a user who is not operated by a human being called an NPC or a CPU, and the pitching control means 13 controls the action. The contents of the control include the pitch start timing, ball type, speed, control, and the like.

投球制御手段13によって投球が開始されることにより、ボールオブジェクトが投手キャラクタからバッターボックスに打者キャラクタに向かって行く様子を示す映像の生成が、オブジェクト表示制御手段18からGPU21に指示される。これは、ゲーム空間に導入された座標系における、投手キャラクタの現在位置(マウンド)から、打者キャラクタの現在位置(ホームベースないしその近傍のバッターボックス)に向けた、ボールキャラクタの移動軌跡および移動速度を決定し、それに沿ってボールキャラクタの位置座標が順次移動していく映像の生成を指示する。投手キャラクタと打者キャラクタは同時に一画面に表示する必要はない。周知のように、投手キャラクタから打者キャラクタに向けて投球がされる前後は投手キャラクタをマウンドの背景とともに表示し(図1参照)、打者キャラクタの近傍にボールオブジェクトが接近してきたときは打者キャラクタとボールオブジェクトをバッターボックスの背景とともに、大きく表示する映像をGPU21が生成してモニタ23に出力してもよい。   When pitching is started by the pitching control means 13, the object display control means 18 instructs the GPU 21 to generate a video showing the ball object going from the pitcher character to the batter box toward the batter character. This is the movement trajectory and movement speed of the ball character from the current position (mound) of the pitcher character toward the current position of the batter character (home base or a batter box in the vicinity thereof) in the coordinate system introduced into the game space. And instructing the generation of an image in which the position coordinates of the ball character sequentially move along with it. It is not necessary to display the pitcher character and the batter character on one screen at the same time. As is well known, the pitcher character is displayed with the background of the mound before and after the pitcher character is thrown toward the batter character (see FIG. 1), and when the ball object approaches the batter character, The GPU 21 may generate a video that displays the ball object together with the background of the batter box and output it to the monitor 23.

打者キャラクタは、バットオブジェクトを有しており、ユーザが操作部5によってこのバットオブジェクトを振るタイミング、スピード、軌道を制御できる。操作判定手段16は、操作部5がユーザにより振り回された動作を検出したことに応じ、バットオブジェクトのゲーム空間上での軌道とスピードを決める。ただし、位置検出部52と位置検出部52の検出結果を組み合わせれば、操作部5を大きく振り切らず、バント動作のように一定の位置まで動かしてその後は操作部5を静止させるという動作も検出できる。   The batter character has a bat object, and the user can control the timing, speed, and trajectory of swinging the bat object by the operation unit 5. The operation determining means 16 determines the trajectory and speed of the bat object in the game space in response to the operation unit 5 detecting a motion swung by the user. However, if the detection results of the position detection unit 52 and the position detection unit 52 are combined, it is possible to detect an operation in which the operation unit 5 is not shaken largely and moved to a certain position like a bunt operation and then the operation unit 5 is stopped. it can.

例えば、操作判定手段16は、検出された方位角の角速度からバットオブジェクトのヘッドスピードを決める。また、位置検出部52により、操作部5が振り回された際の操作部5の高さの位置検出を行う。例えばモニタ23が20インチ(約50cm)の場合、操作部5の高さが、モニタ23の画面底部から測定してR1=0〜20cmであれば、バットオブジェクトのゲーム空間上での位置は「低」に決定される。あるいは操作部5の高さが地面から測定してR2=20〜35cmであれば、「中(ストライクゾーン)」に決定される。あるいは操作部5の高さが地面から測定してR3=35cm以上であれば、「高」に決定される。R1、R2、R3はユーザの高さに応じて調整できるものとする。これは、操作部5から事前にユーザの身長を登録させ、CPU10が上記のR1〜R3を平均身長と登録された身長との比に合わせてR2の位置を画面上方あるいは下方にシフトし、ストライクゾーンを身長に合わせて高くあるいは低くすればよい。   For example, the operation determination unit 16 determines the head speed of the bat object from the detected angular velocity of the azimuth angle. Further, the position detection unit 52 detects the height position of the operation unit 5 when the operation unit 5 is swung. For example, when the monitor 23 is 20 inches (about 50 cm) and the height of the operation unit 5 is measured from the bottom of the screen of the monitor 23 and R1 = 0 to 20 cm, the position of the bat object in the game space is “ “Low”. Alternatively, if the height of the operation unit 5 is measured from the ground and R2 = 20 to 35 cm, it is determined as “medium (strike zone)”. Or if the height of the operation part 5 is measured from the ground and R3 = 35 cm or more, it is determined as “high”. R1, R2, and R3 can be adjusted according to the height of the user. This is because the user's height is registered in advance from the operation unit 5, and the CPU 10 shifts the position of R2 upward or downward according to the ratio of the average height and the registered height in the above R1 to R3, and strikes. You can make the zone higher or lower to suit your height.

当たり判定手段14は、投手キャラクタから放たれたボールオブジェクトが、ユーザが操作したバットオブジェクトと当たったか否かを判断する。例えば、当たり判定手段14は、操作部5の振り回し動作の検出時のボールオブジェクト軌道が、仮想的なゲーム空間での座標が割り当てられたホームベース近傍であり、かつ、そのときのゲーム空間でのボールオブジェクトの高さを「低」「中」「高」の中から決定した上、ボールオブジェクトの高さとバットオブジェクトの高さとを比較して、両者が一致すれば「当たり」、一致しなければ「空振り」と判定する。   The hit determination means 14 determines whether or not the ball object released from the pitcher character hits the bat object operated by the user. For example, the hit determination means 14 indicates that the ball object trajectory at the time of detecting the swinging motion of the operation unit 5 is in the vicinity of the home base to which the coordinates in the virtual game space are assigned, and in the game space at that time After determining the height of the ball object from among “low”, “medium”, and “high”, the height of the ball object and the height of the bat object are compared. It is determined as “missing”.

状況判定手段17は、当たり判定手段14が「当たり」と判定した場合、操作判定手段16により検出された角速度Θに応じて、当たったときのバットオブジェクトの仮想的なヘッドスピードvを決定する。v=rΘという等式を使うが、rは実際にはバットの長さに相当する値(例えば85cm)を代入する。rを操作部5から指定できてもよい。状況判定手段17は、さらに、バッティング結果、すなわち、ホームラン、ヒット、ファイルを決定する。これは、回転動作に加えてZ軸(地表に垂直な軸)方向の動きベクトルを検出し、アッパースイングか、ダウンスイングか、レベルスイングか、スイング種別を決める。そして、ヘッドスピードが所定の閾値以下である場合はファウル、ヘッドスピードが所定の閾値以上(例えば時速120km)であり、かつレベルスイングであればホームラン、それら以外の場合はヒットと決める。   When the hit determination means 14 determines “winning”, the situation determination means 17 determines the virtual head speed v of the bat object when hit according to the angular velocity Θ detected by the operation determination means 16. The equation v = rΘ is used, but r is actually substituted with a value (for example, 85 cm) corresponding to the length of the bat. r may be specified from the operation unit 5. The situation determination unit 17 further determines a batting result, that is, a home run, a hit, and a file. This detects a motion vector in the direction of the Z-axis (axis perpendicular to the ground surface) in addition to the rotation operation, and determines the swing type: upper swing, down swing, level swing. If the head speed is equal to or lower than a predetermined threshold, the foul is determined, and if the head speed is equal to or higher than the predetermined threshold (for example, 120 km / h) and the level swing, the home run is determined.

音出力制御手段15は、当たり判定手段14の当たり判定結果または状況判定手段17のバッティング結果に応じた効果音声を出力するようSPU31に指示する。例えば、ホームランであれば非常に大きな歓声、ヒットであれば普通の歓声、ファウルであれば普通の騒音、空振りであれば失望感のある騒音の出力を指示する。   The sound output control means 15 instructs the SPU 31 to output a sound effect corresponding to the hit determination result of the hit determination means 14 or the batting result of the situation determination means 17. For example, a very loud cheer for a home run, an ordinary cheer for a hit, an ordinary noise for a foul, and an output of disappointing noise for an empty swing are instructed.

オブジェクト表示制御手段18は、当たり判定手段14の当たり判定結果または状況判定手段17のバッティング結果に応じた映像を出力するようGPU21に指示する。ホームランであれば打者キャラクタがベースを周回する様子、ヒットであれば打者キャラクタが出塁する様子、ファウルであればボールオブジェクトがフィールド外に飛んで行く様子、空振りであれば打者キャラクタがボールオブジェクトを空振りした様子を示す映像を出力するようGPU21に指示する。   The object display control unit 18 instructs the GPU 21 to output a video corresponding to the hit determination result of the hit determination unit 14 or the batting result of the situation determination unit 17. If it is a home run, the batter character will go around the base. If it is a hit, the batter character will come out. If it is a foul, the ball object will fly off the field. The GPU 21 is instructed to output a video showing the appearance.

進行制御手段19は、守備側・攻撃側チームの入れ換え、投手キャラクタの投球開始、野手の打球の捕球や送球の有無、打者のスコアカウントや、走者の走塁、チームのアウト数、後続の打者のバッティング結果に応じて、ユーザ側あるいはCPU側のチームのスコアをイニングごとに可算していき、これを所定の回(9回)まで繰り替えし、イニングが所定の回に到達すると、ゲーム終了を宣言する。   The progress control means 19 replaces the defensive and attacking teams, starts pitching the pitcher character, catches and sends the fielder's batting ball, counts the batter's score, runs the runner, the number of teams out, Depending on the batting result of the batter, the team score on the user side or CPU side is counted for each inning, and this is repeated up to a predetermined number of times (9 times). When the inning reaches the predetermined number of times, the game ends. Declare.

背景DB43は、ハードディスクユニットあるいは半導体メモリ4などで構成され、進行制御手段19の管理する現在のゲーム進行状況、当たり判定手段14の当たり判定結果または状況判定手段17のバッティング結果、あるいは操作部5から指定されるカメラ200の設置位置のとりうる全てのパターンに対応した出力用基礎背景画像を予め記憶している。出力用背景画像は、GPU21が用いるゲーム映像用の画像と共通してもよいし異なっていてもよい。通常は、仮想的なゲーム空間を、ゲーム映像用の画像とは逆の視点から捉えた画像を出力用基礎背景画像とする。例えば、ゲーム画像がバッターからピッチャーを見た映像であっても、出力用基礎背景画像はピッチャーからバッター(ユーザ)の存在位置であるバッターボックス近傍をを見たような画像である。ユーザから視点までの距離を操作部5から選択できてもよく、出力用画像作成手段31は、この距離に応じて出力用基礎背景画像をズームインまたはズームアウトし、より近い視点からはバッターボックス(ユーザ存在位置)近傍が大きく、より遠い視点からはバッターボックス(ユーザ存在位置)近傍が小さくなるよう処理してもよい。   The background DB 43 is composed of a hard disk unit or semiconductor memory 4 and the like, and the current game progress status managed by the progress control means 19, the hit judgment result of the hit judgment means 14 or the batting result of the situation judgment means 17, or the operation unit 5. The basic background image for output corresponding to all the patterns that can be taken by the designated installation position of the camera 200 is stored in advance. The output background image may be the same as or different from the game video image used by the GPU 21. Usually, an image obtained by capturing a virtual game space from a viewpoint opposite to the image for the game video is set as the basic background image for output. For example, even if the game image is an image of the pitcher viewed from the batter, the basic background image for output is an image as if the vicinity of the batter box where the batter (user) is present is viewed from the pitcher. The distance from the user to the viewpoint may be selected from the operation unit 5, and the output image creation unit 31 zooms in or out the output basic background image according to this distance, and the batter box ( Processing may be performed so that the vicinity of the user present position) is large and the vicinity of the batter box (user present position) is small from a far viewpoint.

また、出力用基礎背景画像は、カメラ200の設置位置に対応しており、例えば、出力用基礎背景画像は、正面撮像用、左側面撮像用、右側面撮像用、背面撮像用という4つの撮影位置に分類されており、さらに、各撮影位置の分類ごとに、ファウル用、ホームラン用、ヒット用、空振り用という4つのバッティング結果に対応して分類されているとする。さらに、出力用基礎背景画像には、ゲーム空間のキャラクタの存在位置に対応した出力用基礎背景画像上の位置を指定する基準位置情報が対応づけられている。野球ゲームでは、基準位置情報はユーザの選んだ右打者用あるいは左打者用のバッターボックスの位置座標となる。正面撮像用の出力用基礎背景画像は、上述のようにピッチャーからバッター(ユーザ)の存在位置であるバッターボックス近傍を見たような画像である。右側面撮像用、左側面撮像用または背面撮像用の出力用基礎背景画像は、それぞれ、1塁ダッグアウト側、3塁ダッグアウト側またはバックネット側からバッター(ユーザ)の存在位置であるバッターボックス近傍を見たような画像である。   Further, the basic background image for output corresponds to the installation position of the camera 200. For example, the basic background image for output is four shootings for front imaging, left side imaging, right side imaging, and rear imaging. Further, it is assumed that the image is classified into positions, and further classified according to four batting results for fouling, home run, hit, and idling for each classification of each photographing position. Further, the output basic background image is associated with reference position information for designating a position on the output basic background image corresponding to the position of the character in the game space. In the baseball game, the reference position information is the position coordinates of the batter box for the right batter or left batter selected by the user. The output basic background image for front-side imaging is an image as seen from the pitcher near the batter box where the batter (user) exists, as described above. The output basic background image for right side imaging, left side imaging, or rear side imaging is located near the batter box where the batter (user) is located from the 1st dugout side, 3rd dugout side, or back side. It is an image as seen.

例えば図3では、右打者キャラクタの立ち位置であるバッターボックスBr(矩形領域)が基準位置情報である。操作部5からの右打者プレーまたは左打者プレーの指定に応じて基準位置情報は変わる。右打者プレー指定ならばBr、左打者指定ならばBlが基準位置情報となる。図4(a)のユーザは右打者であるから、操作部5からBrを基準位置情報に選択するとよい。   For example, in FIG. 3, batter box Br (rectangular area), which is the standing position of the right batter character, is the reference position information. The reference position information changes according to the designation of right batter play or left batter play from the operation unit 5. If right batter play is designated, Br is used as reference position information, and if left batter is designated, Bl is used as reference position information. Since the user in FIG. 4A is a right batter, Br may be selected from the operation unit 5 as reference position information.

テニスゲームのように、ゲーム空間内のユーザキャラクタの位置が刻々と変化する場合であっても、基準位置情報はゲーム空間内でのユーザの位置を反映したものとなる。これは例えば、仮想的な3次元ゲーム空間において、ユーザキャラクタをゲーム映像用の画像とは逆の視点から捉え、そのユーザキャラクタの座標を2次元平面の出力用基礎背景画像に正投影して得られたユーザキャラクタの座標を基準位置情報とすればよい。   Even if the position of the user character in the game space changes every moment as in a tennis game, the reference position information reflects the position of the user in the game space. This is obtained, for example, in a virtual three-dimensional game space by capturing the user character from a viewpoint opposite to the image for the game video and projecting the coordinates of the user character onto the basic background image for output on the two-dimensional plane. The coordinates of the given user character may be used as the reference position information.

出力用画像作成手段31は、当たり判定手段14の当たり判定結果または状況判定手段17から出力されたバッティング結果、あるいは操作部5から指定されたカメラ200の設置位置に対応する出力用基礎背景画像を背景DB43から抽出し、RAM42に格納する。   The output image creation means 31 outputs the basic background image for output corresponding to the hit determination result of the hit determination means 14 or the batting result output from the situation determination means 17 or the installation position of the camera 200 designated from the operation unit 5. Extracted from the background DB 43 and stored in the RAM 42.

また、出力用画像作成手段31は、操作判定手段16の操作判定から、操作部5の振り回し動作の検出時のボールオブジェクトおよびバットオブジェクトの位置を決定する。ボールオブジェクトの位置は、上述のように、振り回し操作の検出された時点でのボールオブジェクト軌道から、ゲーム空間でのボールオブジェクトの位置を「低」「中」「高」の中から決定する。また、バットオブジェクトについても、上述のスイング種別から、バットオブジェクトの位置を「低」「中」「高」の中から決定する。   Further, the output image creation unit 31 determines the positions of the ball object and the bat object when the swinging motion of the operation unit 5 is detected from the operation determination of the operation determination unit 16. As described above, the position of the ball object is determined from “low”, “medium”, and “high” in the game space from the ball object trajectory when the swing operation is detected. For the bat object, the position of the bat object is determined from “low”, “medium”, and “high” from the above-described swing type.

出力用画像作成手段31は、決定したキャラクタおよびバットオブジェクトの位置に従い、出力用基礎背景画像に、ボールオブジェクトおよびバットオブジェクトを合成し、出力用画像を作成する。レベルスイングならば地面とほぼ平行の状態、ダウンスイングならば地面にヘッド部分が傾いた状態、アッパースイングならば天上にヘッド部分が傾いた状態で、バットオブジェクトの根の部分が操作部5の検出位置に合うよう、バットオブジェクトの画像を出力用基礎背景画像に合成する。図5(a)および(b)はそれぞれ、バットオブジェクト、それが合成された出力用基礎背景画像の一例を示す。バットオブジェクトの他、ユーザの身体に帽子やユニフォームなどの付属品画像を合成してもよい。また、合成の際、ユーザから選択されなかったバッターボックスは出力用基礎背景画像から切り取って省略してもよい。図5(b)では、左打者用バッターボックスが省略されている。   The output image creation means 31 creates an output image by synthesizing the ball object and the bat object with the basic background image for output according to the determined positions of the character and the bat object. If it is a level swing, it is almost parallel to the ground. If it is a downswing, the head part is tilted to the ground. If it is an upper swing, the head part is tilted to the top. The image of the bat object is combined with the basic background image for output so as to match the position. FIGS. 5A and 5B each show an example of a bat object and an output basic background image in which the bat object is synthesized. In addition to the bat object, an accessory image such as a hat or a uniform may be synthesized on the user's body. In addition, a batter box not selected by the user at the time of composition may be cut out from the basic background image for output and omitted. In FIG. 5B, the left batter batter box is omitted.

操作部5やユーザの腕が物陰に隠れて撮影画像に写っていなかったりすると、撮影画像からは、腕の位置などが正確に把握できず、バットオブジェクトの位置が分からない場合もあるが、ここでは操作判定結果に基づいて位置を決めており、より適切な位置へのバットオブジェクトの合成が可能になる。   If the operation unit 5 or the user's arm is hidden behind the object and is not shown in the photographed image, the arm position may not be accurately grasped from the photographed image, and the position of the bat object may not be known. Then, the position is determined based on the operation determination result, and the bat object can be synthesized at a more appropriate position.

撮像制御手段11は、操作判定手段16が操作部5の振り回し動作の開始(テイクバック)を検出したことに応じ、撮影タイミングをカメラ200に指示する。カメラ200は、撮像制御手段11からの指示に応じて撮影を開始し、得られた画像データをゲーム装置100に送信する。   The imaging control unit 11 instructs the camera 200 to determine the imaging timing in response to the operation determination unit 16 detecting the start (takeback) of the swinging operation of the operation unit 5. The camera 200 starts shooting in response to an instruction from the imaging control unit 11 and transmits the obtained image data to the game apparatus 100.

撮像制御手段11による撮像タイミングの指示は1回であっても複数でもよいし、また、1回の撮像タイミングの指示に応じて所定の連写間隔・所定のシャッタスピードでの撮影を繰り返す連写を行ってもよい。   An imaging timing instruction by the imaging control means 11 may be one time or plural, and continuous shooting is repeated at a predetermined continuous shooting interval / predetermined shutter speed in accordance with an instruction of one imaging timing. May be performed.

撮影の開始は、操作部5のスイング動作が検出されたときに行ってもよいが、瞬間的な動作を捉えるには遅すぎる場合もある。そこで、撮像制御手段11は、所定の場面までゲームが進行した場合に行う。野球ゲームの場合には、投球制御手段13の制御に応じて投手キャラクタが放ったボールキャラクタが、ゲーム空間上で打者キャラクタの近傍に接近したことに応じて、撮像制御手段11が撮像の開始を指示する。あるいは、撮像制御手段11は、単純に投手キャラクタがボールキャラクタを放ってから所定の時間(例えば2秒))が経過したときに撮影開始を指示し、その間は、所定のフレームレートでコマ画像の撮影を継続し、操作部5のスイング動作が検出されてから所定の時間(たとえば1秒後)に撮影終了を指示してもよい。   The shooting may be started when the swing motion of the operation unit 5 is detected, but may be too late to capture the instantaneous motion. Therefore, the imaging control means 11 is performed when the game has progressed to a predetermined scene. In the case of a baseball game, the imaging control unit 11 starts imaging in response to the ball character released by the pitcher character approaching the vicinity of the batter character in the game space in accordance with the control of the pitching control unit 13. Instruct. Alternatively, the imaging control means 11 simply instructs the start of shooting when a predetermined time (for example, 2 seconds) has elapsed since the pitcher character released the ball character, and during that period, the frame image is displayed at a predetermined frame rate. The photographing may be continued, and the end of photographing may be instructed at a predetermined time (for example, after one second) after the swing operation of the operation unit 5 is detected.

あるいは、撮像制御手段11は、操作部5が検出した動作が、打撃準備動作(テイクバック)である場合、撮像の開始を指示する。テイクバックは、水平方向への「タメ」を作る動作であり、一連のスイングの動作モデル(例えば図9のようなもの)を予めユーザから操作部5を介してROM41に登録させ、撮像制御手段11がこの動作モデルと操作部5が検出した動作の特徴量を比較し、両者が相当の確からしさで一致すればテイクバックありと判断して撮像の開始を指示する。   Alternatively, when the operation detected by the operation unit 5 is a hitting preparation operation (takeback), the imaging control unit 11 instructs the start of imaging. The takeback is an operation for creating a “finger” in the horizontal direction, and a series of swing operation models (for example, as shown in FIG. 9) are registered in advance in the ROM 41 by the user via the operation unit 5 and image pickup control means. 11 compares the motion model and the feature quantity of the motion detected by the operation unit 5. If both match with a certain probability, it is determined that there is a takeback, and the start of imaging is instructed.

あるいは、ユーザが操作する操作部5とは異なる非ユーザ操作部6から撮影開始/停止の指示を別のユーザがボタン押下などで入力したことに応じて、撮像制御手段11が撮像の開始/停止を指示してもよい。これは例えば、バッターが投球を待っている様子を撮りたい場合などに有効である。ただし、入力された任意のタイミングに対応する出力用基礎背景画像を背景DB43に予め用意しておき、出力用画像作成手段31は出力用画像の作成の際にこれを抽出する必要がある。   Alternatively, the imaging control unit 11 starts / stops imaging in response to another user inputting a shooting start / stop instruction from a non-user operation unit 6 different from the operation unit 5 operated by the user by pressing a button or the like. May be indicated. This is effective when, for example, it is desired to take a picture of a batter waiting for a pitch. However, an output basic background image corresponding to an arbitrary input timing is prepared in the background DB 43 in advance, and the output image creation means 31 needs to extract this when creating the output image.

連写の撮影間隔は、次のようにして設定する。まず、進行制御手段19は、ゲームの開始に先立って、空振りのスイング動作を行うようメッセージなどをモニタ23に表示してユーザに促す。ユーザは、これに応じて空振りのスイング動作を行う。操作判定手段16は、操作部5が回転動作の加速度が零を超えたことに応じて(角加速度が正になったことに応じて)を検出したことに応じて、スイング総動作時間の計時を開始し、操作部5が回転動作の加速度が零になったことを検出したことに応じてスイング総動作時間の計時を終了する。そして、そのスイング総動作時間を計測し、RAM42に格納する。スイングの動作モデルの登録を兼ねるのであれば、検出された操作部5の動作軌跡、スピードなども合わせてRAM42に格納してもよい。撮像制御手段11は、ROM41に予め記録された設定値あるいは操作部5から入力された設定値で撮影枚数が指定されていれば、そのスイング総動作時間の間でその枚数の画像データが撮影されるように撮影間隔を決定する。仮に、撮影枚数が6枚、スイング総動作時間が1.5秒とすれば、1.5/6=0.25秒を撮影間隔と決定し、これをカメラ200に指示する。   The shooting interval for continuous shooting is set as follows. First, prior to the start of the game, the progress control means 19 displays a message or the like on the monitor 23 to prompt the user to perform an empty swing motion. In response to this, the user performs a swinging swing motion. The operation determination unit 16 measures the total swing operation time in response to the operation unit 5 detecting that the acceleration of the rotational operation exceeds zero (in response to the angular acceleration becoming positive). Is started, and the timing of the total swing operation time is ended in response to the fact that the operation unit 5 detects that the acceleration of the rotational operation has become zero. Then, the total swing operation time is measured and stored in the RAM 42. If it also serves to register the swing motion model, the detected motion trajectory and speed of the operation unit 5 may be stored together in the RAM 42. If the number of shots is specified by the setting value recorded in advance in the ROM 41 or the setting value input from the operation unit 5, the imaging control unit 11 shoots the number of image data during the total swing operation time. The shooting interval is determined as follows. If the number of shots is 6, and the total swing operation time is 1.5 seconds, 1.5 / 6 = 0.25 seconds is determined as the shooting interval, and this is instructed to the camera 200.

また、撮像制御手段11は、操作部5の検出した回転速度に応じ、最適なシャッタースピードを決定する。例えば、検出された回転スピードが120時速km程度であれば、シャッタースピードを1/100sと決定する。カメラ200の性能の制約があれば、1/100sに最も近い最速のシャッタースピードの設定を指示する。   Further, the imaging control unit 11 determines an optimum shutter speed according to the rotation speed detected by the operation unit 5. For example, if the detected rotation speed is about 120 km / h, the shutter speed is determined to be 1/100 s. If there is a restriction on the performance of the camera 200, the setting of the fastest shutter speed closest to 1 / 100s is instructed.

図4(a)および(b)はそれぞれ被写体となる実空間のユーザおよび撮影画像Eの一例を示す。   4A and 4B show an example of a real space user and a captured image E that are subjects.

出力用画像作成手段31は、カメラ200から受信したRAM42の画像を解析し、ユーザの身体の全部(全身。例えば特開2006−311505号公報を参照)または一部(顔など。例えば特開2008−42801号公報を参照)を抽出する。   The output image creation means 31 analyzes the image of the RAM 42 received from the camera 200, and the entire body of the user (the whole body; see, for example, Japanese Patent Laid-Open No. 2006-311505) or a part (face, for example, Japanese Patent Laid-Open No. 2008). -42801).

画像データから動きのあるユーザの身体を正確に抽出するため、操作判定手段16による判定結果に基づいてユーザの姿勢を推測し、推測された姿勢のユーザを画像データから抽出してもよい。これは例えば、次のようにする。バットスイング動作では、体軸を中心として回転するから、腕の位置は大きく動くが、頭は大きく動かない。そこで、図6に例示するように、まず公知の顔検出で、幅w×高さhの矩形の顔領域Fを検出し、この顔領域Fを所定方向に所定の長さだけ(例えば鉛直方向に4倍)延長し、延長領域PLを得る。これは、標準的な顔の長さと体全体のサイズの比を基に決めるとよい。そして、その延長領域PLの上底辺および下底辺の終端E1・E2と操作部5の検出位置Xとをそれぞれ線分で結んでできた閉領域および延長領域PLを含む領域を、ユーザ検出領域とする。ユーザの上半身だけを抽出したい場合は、延長領域を顔領域Fから鉛直方向に2倍などとすればよい。このユーザ検出領域の中から、エッジ検出などでさらに人物の体部分を抽出して、ユーザの画像データを抽出する。ユーザは屋内にいるから、周囲に様々なインテリアがあると、物体と人物のエッジ成分が入り交じって人物抽出の精度が下がるが、操作部5の位置を利用して人物抽出する領域を限定することで、動いているユーザだけをかたどった画像データの抽出精度が向上することが期待される。   In order to accurately extract the user's body in motion from the image data, the user's posture may be estimated based on the determination result by the operation determination means 16, and the user with the estimated posture may be extracted from the image data. For example, this is as follows. In the bat swing motion, the arm moves greatly because it rotates around the body axis, but the head does not move greatly. Therefore, as illustrated in FIG. 6, first, a known face detection detects a rectangular face area F having a width w × height h, and this face area F is detected by a predetermined length in a predetermined direction (for example, in the vertical direction). 4 times) to obtain an extension region PL. This may be determined based on the ratio of standard face length to overall body size. Then, a region including the closed region and the extended region PL formed by connecting the upper and lower ends E1 and E2 of the extended region PL and the detection position X of the operation unit 5 with line segments is defined as a user detection region. To do. When it is desired to extract only the upper body of the user, the extension area may be doubled from the face area F in the vertical direction. From this user detection area, a human body part is further extracted by edge detection or the like, and user image data is extracted. Since the user is indoors, if there are various interiors around the object, the edge component of the object and the person mixes to reduce the accuracy of the person extraction, but the person extraction area is limited by using the position of the operation unit 5. As a result, it is expected that the extraction accuracy of the image data in the shape of only the moving user is improved.

さらに抽出精度を上げるには、ゲームの種類に応じた一連の動作を表すスケルトンモデル(ゲームが野球であれば、例えば特開2001−204963号公報の図10のようなバットスイングに関するもの)を用意し、これをカメラ200からの画像データと比較して、ユーザに相当する部分画像(ユーザ抽出画像)を得る。具体的には、例えば、顔領域Fにスケルトンモデルの顔の位置、コントローラの位置Xにバットスイング動作中のスケルトンモデルの手の位置を合わせ、このスケルトンモデルを基準に設定されたユーザ身体モデル領域に相当する画像データ部分を抽出し、ユーザ抽出画像を得る。ゲームの種類は野球以外でもよく、テニス、ゴルフのようなスイング動作のあるスポーツの他、マラソンのように似たような動作が繰り返されるスポーツでも、それをスケルトンモデルにすればユーザ抽出画像の抽出は可能である。   In order to further improve the extraction accuracy, a skeleton model that represents a series of actions according to the type of game (if the game is baseball, for example, a bat swing as shown in FIG. 10 of JP-A-2001-204963) is prepared. Then, this is compared with the image data from the camera 200 to obtain a partial image (user extracted image) corresponding to the user. Specifically, for example, the position of the face of the skeleton model is aligned with the face area F, the position of the skeleton model hand during the bat swing operation is aligned with the position X of the controller, and the user body model area set based on this skeleton model Is extracted to obtain a user-extracted image. The type of game can be other than baseball, and in addition to sports with swing movements such as tennis and golf, sports that repeat similar movements such as marathons can be extracted by extracting them as a skeleton model. Is possible.

次に、出力用画像作成手段31は、ユーザに相当する部分画像(ユーザ抽出画像)を出力用背景画像と合成する。その際、当該部分画像の合成位置は、基準位置情報に従う。例えば、図7では、右打者プレー指定のバッターボックスBrにユーザ抽出画像の底部を位置決めして配置し合成している。   Next, the output image creation means 31 combines a partial image corresponding to the user (user extracted image) with the output background image. At that time, the composite position of the partial image follows the reference position information. For example, in FIG. 7, the bottom of the user-extracted image is positioned and synthesized in the batter box Br designated for the right batter play.

図8はCPU10の実行する一連の画像処理を示すフローチャートである。操作部5のコントローラ53からゲーム開始の指示を受け付けると、進行制御手段19は、ゲーム進行制御を開始する(S1)。この際、モデルスイング動作の登録やユーザ側チームの先行・後攻を決める。進行制御手段19は、ユーザ側チームの攻撃イニングになると、投球制御手段13にCPUユーザの投球を開始するよう指示する。これに応じて投球制御手段13がCPUユーザの投手キャラクタを制御し投球動作を行わせる。撮像制御手段11は、上述のように撮像タイミングを制御する(S2)。   FIG. 8 is a flowchart showing a series of image processing executed by the CPU 10. Upon receiving a game start instruction from the controller 53 of the operation unit 5, the progress control means 19 starts game progress control (S1). At this time, the registration of the model swing action and the preceding / lasting of the user side team are determined. The progress control means 19 instructs the pitch control means 13 to start pitching by the CPU user when the attack inning of the user side team is reached. In response to this, the pitch control means 13 controls the pitcher character of the CPU user to perform a pitching action. The imaging control means 11 controls the imaging timing as described above (S2).

出力用画像作成手段31は、操作判定手段16の操作判定結果に応じてユーザ被写体の位置を推測し(S3)、カメラ200から受信した画像からユーザ被写体の全部または一部を含む部分画像を抽出する(S4)。   The output image creation unit 31 estimates the position of the user subject according to the operation determination result of the operation determination unit 16 (S3), and extracts a partial image including all or part of the user subject from the image received from the camera 200. (S4).

また、出力用画像作成手段31は、操作判定手段16の操作判定から、操作部5の振り回し動作の検出時のボールオブジェクトおよびバットオブジェクトの位置を決定する。ユーザキャラクタのゲーム空間での座標が変化する種類のゲームであれば、その座標を出力用基礎画像上の座標に変換する(S5)。出力用画像作成手段31は、撮影開始時に進行中のゲーム場面に対応した出力用基礎背景画像を背景DB43から抽出する(S6)。ただし、この抽出は、ゲームの進行中であってもよいしゲームが終わった後でもよい。ゲームが終わった後に抽出するには、出力用画像作成手段31は、撮影開始の指示が入力されたと判断された時点での場面を示すフラグをRAM42に記憶しておき、ゲーム終了後にこのフラグで示される場面に対応する出力用基礎背景画像を背景DB43から抽出する。撮像指示が複数入力された場合は、その各々の入力時に対応するフラグを記憶しておき、操作部5から選択されたフラグの示す場面のみの出力用基礎背景画像を抽出してもよい。こうすれば必要な出力用基礎背景画像だけを抽出でき効率がよい。リアルタイムで抽出するには、出力用画像作成手段31は、撮影開始の指示が入力されたと判断された時点での場面に対応する出力用基礎背景画像を即時に背景DB43から抽出すればよい。   Further, the output image creation unit 31 determines the positions of the ball object and the bat object when the swinging motion of the operation unit 5 is detected from the operation determination of the operation determination unit 16. If it is a game of a type in which the coordinates of the user character in the game space are changed, the coordinates are converted into coordinates on the basic image for output (S5). The output image creation means 31 extracts a basic background image for output corresponding to the game scene in progress at the start of shooting from the background DB 43 (S6). However, this extraction may be in progress of the game or after the game is over. In order to extract after the game is over, the output image creation means 31 stores a flag indicating a scene at the time when it is determined that an instruction to start shooting is input in the RAM 42, and this flag is used after the game is over. An output basic background image corresponding to the displayed scene is extracted from the background DB 43. When a plurality of imaging instructions are input, a flag corresponding to each input may be stored, and an output basic background image for only the scene indicated by the flag selected from the operation unit 5 may be extracted. In this way, only necessary basic background images for output can be extracted, which is efficient. In order to extract in real time, the output image creating means 31 may immediately extract an output basic background image corresponding to a scene at the time when it is determined that an instruction to start photographing has been input from the background DB 43.

さらに、出力用画像作成手段31は、決定したキャラクタおよびバットオブジェクトの位置に従い、出力用基礎背景画像に、ボールオブジェクトおよびバットオブジェクトを合成し、出力用画像を作成する(S7)。   Further, the output image creation means 31 composes the ball object and the bat object with the basic background image for output according to the determined positions of the character and the bat object, and creates an output image (S7).

この出力用画像は、RAM42に保存される。その後、通信部4を介して接続されたプリンタ300や、図示しないプリント注文受付サーバ、パソコン、PDAその他の電子機器に出力し、プリントアウトしたり保存したりすることができる(S8)。   This output image is stored in the RAM 42. Thereafter, the data can be output to a printer 300 connected via the communication unit 4, a print order receiving server (not shown), a personal computer, a PDA, or other electronic device, and printed out or stored (S8).

このように、ゲーム操作を行っているユーザを瞬間的に捉え、その瞬間でユーザが存在するゲーム空間に対応した背景にユーザ抽出画像を合成して、あたかもユーザがゲーム空間内にいるような画像を作成して出力できる。   In this way, the user who is performing the game operation is captured instantaneously, and the user-extracted image is synthesized with the background corresponding to the game space in which the user exists at that moment, so that the user is in the game space. Can be created and output.

<第2実施形態>
第1実施形態では主に打撃動作を伴う種類のゲームを説明したが、マラソンのように打撃以外の動作を伴うゲームにおいても、好適なタイミングで撮影された画像からユーザ被写体を精度よく抽出し、ゲーム背景と合成することができる。
<Second Embodiment>
In the first embodiment, a type of game mainly involving a hitting operation has been described. However, even in a game involving an action other than a hit like a marathon, a user subject is accurately extracted from an image taken at a suitable timing, Can be combined with the game background.

図10に例示するように、操作部5は、ユーザのベルトに帯同するなどして、ユーザの足踏み動作の妨げにならないようにする。   As illustrated in FIG. 10, the operation unit 5 is attached to the user's belt so as not to interfere with the user's stepping action.

進行制御手段19は、操作部5から検出された動作がランニング動作(定期的な上下動)であるか否かを判別し、ランニング動作のピッチの速さに応じて、所定のランニングルート上におけるユーザランナーキャラクタの現在位置を制御する。すなわち、上下動のピッチの速さがランニングの速さに比例する。また、オブジェクト表示制御手段18は、進行制御手段19の制御するユーザランナーキャラクタの現在位置に応じて、所定のランニングルート上におけるランナーの現在の走行地点周囲の映像を表示するようGPU21に指示する。また、適宜のBGM再生をSPU31に指示する。   The progress control means 19 determines whether or not the operation detected from the operation unit 5 is a running operation (periodic vertical movement), and on a predetermined running route according to the pitch speed of the running operation. Controls the current position of the user runner character. That is, the speed of the vertical movement pitch is proportional to the running speed. Further, the object display control means 18 instructs the GPU 21 to display an image around the runner's current running point on a predetermined running route in accordance with the current position of the user runner character controlled by the progress control means 19. Also, it instructs the SPU 31 to perform appropriate BGM playback.

進行制御手段19は、ユーザランナーキャラクタ以外の一般ランナーを示すCPUキャラクタのランニングルートの走行状況を決定し、オブジェクト表示制御手段18は、それに応じた一般ランナーのキャラクタの表示もGPU21に指示する。例えば、進行制御手段19は、1または複数の一般ランナー(CPUキャラクタ)のそれぞれにランダムに走行スピードを割り当て、その走行スピードを保ったままスタートからゴールまでランニングルートに沿って一般ランナーの座標を仮想的に移動させ、オブジェクト表示制御手段18は、一般ランナーの現在位置がユーザランナーキャラクタの現在位置に近づいた場合にのみその一般ランナーのキャラクタ映像の表示をGPUG21に指示する。進行制御手段19は、一般ランナーとユーザランナーが近接した場合、一般ランナーがユーザランナーと抜きつ抜かれつの接戦をするよう一般ランナーの走行スピードを調整してもよい。   The progress control means 19 determines the running status of the running route of the CPU character indicating a general runner other than the user runner character, and the object display control means 18 instructs the GPU 21 to display the general runner character accordingly. For example, the progress control means 19 assigns a running speed to each of one or more general runners (CPU characters) at random, and virtually maps the coordinates of the general runners along the running route from the start to the goal while maintaining the running speed. The object display control means 18 instructs the GPU 21 to display the character image of the general runner only when the current position of the general runner approaches the current position of the user runner character. When the general runner and the user runner are close to each other, the progress control means 19 may adjust the traveling speed of the general runner so that the general runner is pulled out of the user runner and makes a close contact.

撮像制御手段11は、進行制御手段19に対し、ユーザランナーキャラクタが当該一般ランナーを追い越そうとしているかまたは追い越したか否かを定期的に(例えば毎秒)問い合わせる。進行制御手段19は、この問い合わせに応じて、ユーザランナーキャラクタの現在位置が、ある一般ランナーの現在位置と所定の範囲で近接しているか(一般ランナーの背後か、並走しているか、またはそれよりもゴール側に近くなったか)否かを判断しその判断結果を撮像制御手段11に返答する。   The imaging control means 11 inquires of the progress control means 19 periodically (for example, every second) whether or not the user runner character is trying to overtake or overtake the general runner. In response to this inquiry, the progress control means 19 determines whether the current position of the user runner character is close to a current position of a general runner within a predetermined range (behind the general runner, running in parallel, or And the result of the determination is returned to the imaging control means 11.

撮像制御手段11は、進行制御手段19からYes(接近している)が返答された場合、カメラ200に撮影を指示する。そのときは、ユーザは、おそらく一般ランナーを追い越そうと必死に足踏みしているであろうから、ユーザの様子を捉えた画像を作るのに適している。あるいは、撮像制御手段11は、ランニングルートのスタート地点からユーザランナーが出発する前後、ランニングルートのゴール地点にユーザランナーが出発する前後などの状況であるか否かを進行制御手段19に問い合わせ、その返答に応じてカメラ200に撮影を指示してもよい。   The imaging control unit 11 instructs the camera 200 to perform imaging when the progress control unit 19 returns Yes (approaching). At that time, the user is probably desperately trying to pass the general runner, so it is suitable for creating an image that captures the state of the user. Alternatively, the imaging control means 11 inquires of the progress control means 19 whether or not the user runner starts from the starting point of the running route, before or after the user runner leaves the goal point of the running route, and so on. Depending on the response, the camera 200 may be instructed to shoot.

出力用画像作成手段31は、進行制御手段19が管理する、所定のランニングルート上におけるランナーの現在の走行地点に対応した風景を有する出力用基礎背景画像を背景DB43から抽出する(図11参照)。   The output image creating means 31 extracts from the background DB 43 an output basic background image having a landscape corresponding to the current run point of the runner on the predetermined running route managed by the progress control means 19 (see FIG. 11). .

また、出力用画像作成手段31は、カメラ200から受信した画像データから、ユーザ抽出画像を抽出する。これは、第1実施形態と同様、ユーザの足踏み動作を表すスケルトンモデルを用意しておき、顔領域Fにスケルトンモデルの顔の位置、コントローラの位置Xにスケルトンモデルの手の位置を合わせ、このスケルトンモデルを基準に設定されたユーザ身体モデル領域に相当する画像データ部分を抽出し、ユーザ抽出画像を得る(図12参照)。   Further, the output image creation unit 31 extracts a user extracted image from the image data received from the camera 200. As in the first embodiment, a skeleton model representing a user's stepping action is prepared, and the position of the face of the skeleton model is aligned with the face region F, and the position of the hand of the skeleton model is aligned with the position X of the controller. An image data portion corresponding to the user body model region set based on the skeleton model is extracted to obtain a user extracted image (see FIG. 12).

そして、出力用画像作成手段31は、ユーザ抽出画像と背景画像とを合成し、出力用画像を得る(図13参照)。ユーザの身体にゼッケンなどの付属品画像を合成してもよい。この合成画像は、RAM42に保存される。その後、この出力用画像は、RAM42に保存される。その後、通信部4を介して接続されたプリンタ300や、図示しないプリント注文受付サーバ、パソコン、PDAその他の電子機器に出力し、プリントアウトしたり保存したりすることができる。   Then, the output image creation means 31 combines the user extracted image and the background image to obtain an output image (see FIG. 13). An accessory image such as a bib may be synthesized on the user's body. This composite image is stored in the RAM 42. Thereafter, the output image is stored in the RAM 42. Thereafter, the data can be output to a printer 300 connected via the communication unit 4, a print order receiving server (not shown), a personal computer, a PDA, or other electronic devices, and printed out or stored.

その他、ゴルフ、釣り、クッキングなど、ユーザの動作を検出できるゲームであれば、本発明は適用できる。   In addition, the present invention can be applied to any game that can detect the user's action, such as golf, fishing, and cooking.

また、本発明は点数を競うような「ゲーム」という概念に限らず、ユーザの操作に応じたキャラクタと仮想世界の映像出力のシナリオに沿って仮想的な空間に関する映像を出力する装置であれば、何でも適用できる。すなわち、進行制御手段19は、点数を競うような「ゲーム」だけを扱うのではない。   In addition, the present invention is not limited to the concept of a “game” that competes for points, but may be any device that outputs a video related to a virtual space according to a scenario of video output of a character and a virtual world according to a user's operation. Anything can be applied. That is, the progress control means 19 does not handle only “games” that compete for scores.

映像処理システムの外観を示す図Diagram showing the appearance of the video processing system 映像処理装置のブロック図Block diagram of video processing device 第1実施形態の出力用背景基礎画像の一例を示す図The figure which shows an example of the background basic image for an output of 1st Embodiment. 第1実施形態のユーザ撮影画像およびユーザ抽出画像の一例を示す図The figure which shows an example of the user picked-up image of 1st Embodiment, and a user extraction image オブジェクトおよびオブジェクトの合成された出力用背景基礎画像の一例を示す図The figure which shows an example of the background basic image for output which the object and the object were synthesize | combined ユーザ検出領域の一例を示す図The figure which shows an example of a user detection area | region 第1実施形態の出力用画像の一例を示す図The figure which shows an example of the image for an output of 1st Embodiment. 画像処理のフローチャートImage processing flowchart スイングの動作モデルの一例を示す図Diagram showing an example of swing motion model 第2実施形態のユーザ撮影画像の一例を示す図The figure which shows an example of the user picked-up image of 2nd Embodiment. 第2実施形態の出力用背景基礎画像の一例を示す図The figure which shows an example of the background basic image for output of 2nd Embodiment. 第2実施形態のユーザ抽出画像の一例を示す図The figure which shows an example of the user extraction image of 2nd Embodiment. 第2実施形態の出力用画像の一例を示す図The figure which shows an example of the image for an output of 2nd Embodiment.

符号の説明Explanation of symbols

5:操作部、100:映像処理装置、200:カメラ 5: operation unit, 100: video processing device, 200: camera

Claims (11)

ユーザの動作を検出する動作検出部と、
前記動作検出部の検出したユーザの動作に基づいて、仮想空間上のシナリオに沿った場面の進行を制御する進行管理部と、
前記進行管理部が進行を制御することが可能な場面に応じた出力用基礎背景画像を格納する格納部と、
所定の撮像装置に撮像の開始もしくは終了を指示する撮像指示部と、
前記撮像指示部が撮像の開始を指示した時点で前記進行管理部の制御する場面に対応する出力用基礎背景画像を、前記格納部から抽出する画像抽出部と、
前記撮像指示部の指示に応じて前記撮像装置が取得した画像を、前記撮像装置から入力する画像入力部と、
前記画像入力部の入力した画像の一部または全部と、前記画像抽出部の抽出した出力用基礎背景画像とを合成することで、出力用画像を作成する出力用画像作成部と、
を備える情報処理装置。
An operation detection unit for detecting a user's operation;
Based on the user action detected by the action detection unit, a progress management unit that controls the progress of the scene according to the scenario in the virtual space;
A storage unit for storing a basic background image for output corresponding to a scene in which the progress management unit can control the progress;
An imaging instruction unit that instructs a predetermined imaging device to start or end imaging;
An image extraction unit that extracts a basic background image for output corresponding to a scene controlled by the progress management unit when the imaging instruction unit instructs to start imaging, from the storage unit;
An image input unit that inputs an image acquired by the imaging device in response to an instruction from the imaging instruction unit from the imaging device;
An output image creation unit that creates an output image by synthesizing a part or all of the image input by the image input unit and the output basic background image extracted by the image extraction unit;
An information processing apparatus comprising:
ユーザの操作位置を検出する位置検出部を備え、
前記出力用画像作成部は、前記位置検出部の検出したユーザの操作位置に応じた前記出力用基礎背景画像上の位置に前記画像入力部の入力した画像の一部または全部を合成する請求項1に記載の情報処理装置。
A position detection unit for detecting a user's operation position;
The output image creating unit synthesizes a part or all of the image input by the image input unit at a position on the output basic background image corresponding to the operation position of the user detected by the position detection unit. The information processing apparatus according to 1.
前記出力用基礎背景画像は、仮想空間における所望の視点からユーザキャラクタを捉えた画像を含む請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the basic background image for output includes an image capturing a user character from a desired viewpoint in a virtual space. 前記出力用基礎背景画像は、仮想空間において、表示用映像とは逆の視点からユーザを捉えた画像を含む請求項3に記載の情報処理装置。   The information processing apparatus according to claim 3, wherein the basic background image for output includes an image that captures a user from a viewpoint opposite to a display video in a virtual space. 前記動作検出部の検出したユーザの動作に基づいて、前記場面の進行に関係する所定の動作が開始もしくは終了したか否かを判定する動作判定部と、
を備え、
前記撮像指示部は、前記動作判定部が、前記シナリオの進行に関係する所定の動作が開始もしくは終了したと判断したことに応じ、前記撮像装置に撮像の開始もしくは終了を指示する請求項1〜4のいずれかに記載の情報処理装置。
An operation determination unit that determines whether or not a predetermined operation related to the progress of the scene has started or ended based on the user's operation detected by the operation detection unit;
With
The imaging instruction unit instructs the imaging device to start or end imaging in response to the operation determining unit determining that a predetermined operation related to the progress of the scenario has started or ended. 5. The information processing apparatus according to any one of 4.
前記動作検出部の検出したユーザの動作および/または前記位置検出部の検出したユーザの操作位置に基づいて、前記画像入力部の入力した画像から、ユーザの被写体画像を抽出するユーザ抽出部を備え、
前記出力用画像作成部は、前記ユーザ抽出部の抽出したユーザの被写体画像と前記画像抽出部の抽出した出力用基礎背景画像とを合成し、出力用画像を作成する請求項1〜5のいずれかに記載の情報処理装置。
A user extraction unit that extracts a user's subject image from an image input by the image input unit based on a user operation detected by the operation detection unit and / or a user operation position detected by the position detection unit; ,
The output image creation unit synthesizes the user's subject image extracted by the user extraction unit and the output basic background image extracted by the image extraction unit, and creates an output image. An information processing apparatus according to claim 1.
前記撮像指示部は、前記動作検出部の検出したユーザの動作に応じた撮影間隔および/またはシャッタスピードの設定を前記撮像装置に指示する請求項1〜6のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the imaging instruction unit instructs the imaging apparatus to set a shooting interval and / or a shutter speed according to a user operation detected by the operation detection unit. 前記撮像指示部は、ユーザ以外のユーザに対応する操作装置への入力操作に応じて前記撮像装置に撮像の開始もしくは終了を指示する請求項1〜7のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the imaging instruction unit instructs the imaging apparatus to start or end imaging in response to an input operation to an operation apparatus corresponding to a user other than the user. 前記出力用画像作成部の作成した出力用画像を所望の電子機器に出力する出力部を備える請求項1〜8のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising: an output unit that outputs the output image created by the output image creation unit to a desired electronic device. コンピュータが、
ユーザの動作を検出するステップと、
前記検出したユーザの動作に基づいて、仮想空間上のシナリオに沿った場面の進行を制御するステップと、
前記進行を制御することが可能な場面に応じた出力用基礎背景画像を格納するステップと、
所定の撮像装置に撮像の開始もしくは終了を指示するステップと、
前記撮像の開始を指示した時点で制御されている場面に対応する出力用基礎背景画像を抽出するステップと、
前記撮像開始の指示に応じて前記撮像装置が取得した画像を、前記撮像装置から入力するステップと、
前記入力した画像の一部または全部と、前記抽出した出力用基礎背景画像とを合成することで、出力用画像を作成するステップと、
を実行する情報処理方法。
Computer
Detecting user actions; and
Controlling the progress of a scene along a scenario in a virtual space based on the detected user action;
Storing a basic background image for output according to a scene capable of controlling the progress;
Instructing a predetermined imaging device to start or end imaging;
Extracting a basic background image for output corresponding to a scene controlled at the time of instructing the start of imaging;
Inputting an image acquired by the imaging device in response to an instruction to start imaging from the imaging device;
Creating an output image by synthesizing a part or all of the input image and the extracted basic background image for output; and
Information processing method to execute.
ユーザの動作を検出するステップと、
前記検出したユーザの動作に基づいて、仮想空間上のシナリオに沿った場面の進行を制御するステップと、
前記進行を制御することが可能な場面に応じた出力用基礎背景画像を格納するステップと、
所定の撮像装置に撮像の開始もしくは終了を指示するステップと、
前記撮像の開始を指示した時点で制御されている場面に対応する出力用基礎背景画像を抽出するステップと、
前記撮像開始の指示に応じて前記撮像装置が取得した画像を、前記撮像装置から入力するステップと、
前記入力した画像の一部または全部と、前記抽出した出力用基礎背景画像とを合成することで、出力用画像を作成するステップと、
をコンピュータに実行させる情報処理プログラム。
Detecting user actions; and
Controlling the progress of a scene along a scenario in a virtual space based on the detected user action;
Storing a basic background image for output according to a scene capable of controlling the progress;
Instructing a predetermined imaging device to start or end imaging;
Extracting a basic background image for output corresponding to a scene controlled at the time when the start of imaging is instructed;
Inputting an image acquired by the imaging device in response to the imaging start instruction from the imaging device;
Creating an output image by synthesizing a part or all of the input image and the extracted basic background image for output; and
An information processing program that causes a computer to execute.
JP2008232623A 2008-09-10 2008-09-10 Information processing apparatus, method, and program Pending JP2010067002A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008232623A JP2010067002A (en) 2008-09-10 2008-09-10 Information processing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008232623A JP2010067002A (en) 2008-09-10 2008-09-10 Information processing apparatus, method, and program

Publications (1)

Publication Number Publication Date
JP2010067002A true JP2010067002A (en) 2010-03-25

Family

ID=42192539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008232623A Pending JP2010067002A (en) 2008-09-10 2008-09-10 Information processing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP2010067002A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010233671A (en) * 2009-03-30 2010-10-21 Namco Bandai Games Inc PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2011210119A (en) * 2010-03-30 2011-10-20 Sony Corp Information processing apparatus, image output method, and program
JP2015060061A (en) * 2013-09-18 2015-03-30 日本コントロールシステム株式会社 Karaoke apparatus, image output method, and program
WO2020032582A1 (en) * 2018-08-08 2020-02-13 Samsung Electronics Co., Ltd. Electronic device for displaying avatar corresponding to external object according to change in position of external object

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010233671A (en) * 2009-03-30 2010-10-21 Namco Bandai Games Inc PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2011210119A (en) * 2010-03-30 2011-10-20 Sony Corp Information processing apparatus, image output method, and program
US9198611B2 (en) 2010-03-30 2015-12-01 Sony Corporation Information processing device, image output method, and program
JP2015060061A (en) * 2013-09-18 2015-03-30 日本コントロールシステム株式会社 Karaoke apparatus, image output method, and program
WO2020032582A1 (en) * 2018-08-08 2020-02-13 Samsung Electronics Co., Ltd. Electronic device for displaying avatar corresponding to external object according to change in position of external object

Similar Documents

Publication Publication Date Title
JP5286267B2 (en) Game device, game program, and object operation method
KR102045449B1 (en) Virtual tennis simulation system and control method for the same
JP5436772B2 (en) Program and game device
KR100970866B1 (en) Game device, progress control method and information recording medium
CN100473436C (en) Method for controlling game progress, and game device for executing the method
JP4619087B2 (en) GAME PROGRAM AND GAME DEVICE
CN102015046B (en) Game system and game device control method
US11040287B2 (en) Experience-oriented virtual baseball game apparatus and virtual baseball game control method using the same
TWI638679B (en) Apparatus for base-ball practice, sensing device and sensing method used to the same and control method for the same
JP2002045569A (en) Computer readable recording medium on which game prigress control program is recorded, server and game progress control method
JP7592474B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JPWO2009028690A1 (en) GAME DEVICE, GAME PROGRAM, AND GAME DEVICE CONTROL METHOD
CN105764582A (en) Gaming apparatus, gaming system, program, and recording medium
JP5396212B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2005034619A (en) Golf club head behavior measuring device
JP4962978B2 (en) GAME IMAGE DISPLAY CONTROL PROGRAM, GAME DEVICE, AND GAME IMAGE DISPLAY CONTROL METHOD
JP2012101026A (en) Program, information storage medium, game device, and server system
KR101131882B1 (en) Game device, game control method, and computer readable recording medium on which game control program is recorded
JP2010067002A (en) Information processing apparatus, method, and program
JP2009045495A (en) Behavior measuring instrument for golf club head
WO2007052707A1 (en) Program, storage medium where program is recorded, and game device
JP4320352B2 (en) GAME DEVICE, GAME CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME
JP4962977B2 (en) Game program, battle game apparatus, and battle game control method
JP6501814B2 (en) Game program, method, and information processing apparatus
JP3750103B2 (en) Recording medium and game device