WO2018190484A1 - Image shooting training system - Google Patents
Image shooting training system Download PDFInfo
- Publication number
- WO2018190484A1 WO2018190484A1 PCT/KR2017/012760 KR2017012760W WO2018190484A1 WO 2018190484 A1 WO2018190484 A1 WO 2018190484A1 KR 2017012760 W KR2017012760 W KR 2017012760W WO 2018190484 A1 WO2018190484 A1 WO 2018190484A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- laser
- image
- shooting training
- user
- firearm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/26—Teaching or practice apparatus for gun-aiming or gun-laying
- F41G3/2616—Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device
- F41G3/2622—Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile
- F41G3/2655—Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile in which the light beam is sent from the weapon to the target
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41A—FUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
- F41A33/00—Adaptations for training; Gun simulators
- F41A33/02—Light- or radiation-emitting guns ; Light- or radiation-sensitive guns; Cartridges carrying light emitting sources, e.g. laser
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/26—Teaching or practice apparatus for gun-aiming or gun-laying
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/26—Teaching or practice apparatus for gun-aiming or gun-laying
- F41G3/28—Small-scale apparatus
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41J—TARGETS; TARGET RANGES; BULLET CATCHERS
- F41J5/00—Target indicating systems; Target-hit or score detecting systems
- F41J5/14—Apparatus for signalling hits or scores to the shooter, e.g. manually operated, or for communication between target and shooter; Apparatus for recording hits or scores
Definitions
- the present invention relates to an image shooting training system. More particularly, the present invention relates to an image shooting training system that performs shooting training by firing a laser onto an image including a target.
- an image is displayed by using a projector on a screen installed in front of a trainer, and the trainer performs shooting toward a target appearing in the image.
- Korean Patent No. 1,314,179 (registered on Sep. 26, 2013) relates to an image shooting training apparatus, comprising: a screen, a projector for projecting an image on the screen, a gun for firing a laser toward the screen, and a laser incident on the image. It includes an image photographing unit for photographing the simulated impact point, and a processing unit for calculating the hit result for the target represented in the image based on the simulated impact point, the actual distance by the range considering the trajectory trajectory on the basis of the simulated impact point by the laser The impact point is calculated to provide the same results of shooting training as the actual environment.
- the image shooting training apparatus calculates the actual landing point using the ballistic trajectory of the bullet only considering gravity, and does not consider the change of the trajectory trajectory due to the user's posture, so the shooting result in the actual shooting environment And other simulated shooting results.
- An object of the present invention is to provide an image shooting training system that can provide the same shooting training results as the actual shooting environment.
- Imaging target training system for achieving the above object, a simulated firearm for firing a laser on the screen; A camera device for recognizing a laser image formed by the laser on the screen; A controller terminal for setting an image shooting training environment; Configure a virtual shooting training ground based on the image shooting training environment, generate image data of at least a portion of the virtual shooting training ground positioned in a gaze direction based on the simulated firearm, and based on the laser image, the shooting training ground A trainer terminal for calculating an impact point of the laser within the laser beam and generating an impact image data based on the impact point; And a display device for displaying a shooting training image on the screen based on the image data.
- the simulated firearm comprises: a gun body; A trigger module configured to generate a trigger signal according to an operation of the trigger of the gun body; A laser module generating the laser and firing the laser in the direction of the muzzle of the gun body; A reaction module for generating a reaction to the firearm main body based on the trigger signal; A switch module formed on the firearm main body and controlling at least one of a position of the simulated firearm in the virtual shooting training field and the gaze direction; And it may include a sensor module for measuring the slope of the simulated firearm.
- the image shooting training system may further include a motion recognition device that recognizes the location of the simulated firearm by firing sensing signals at different heights based on the bottom surface of the point where the simulated firearm is located. Can be.
- the trainer terminal may calculate an actual impact point by correcting the impact point of the laser based on the slope of the simulated firearm.
- the trainer terminal determines a firing direction of the bullet based on the inclination of the simulated firearm, separates the firing speed of the bullet into element speeds based on the firing direction of the bullet, Based on Equation 1, the impact correction value can be calculated.
- Cy is the second correction value in the second axis direction
- Cy0 is the second initial error in the second axis direction
- Cz is in the third axis direction
- the third correction value, and Cz0 is the third initial error in the third axis direction.
- the trainer terminal generates a shooting training result, wherein the shooting training result includes a first time including the impact point of the laser, the actual impact point, the inclination of the simulated firearm, and a triggering time point. It may include the path of movement of the laser during.
- the image shooting training system may further include an auxiliary screen positioned between the simulated firearm and the screen and reflecting a portion of the laser.
- the camera apparatus recognizes a first laser image formed on the screen and a second laser image formed on the auxiliary screen, respectively, wherein the first laser image and the second laser image are included in the laser image. May be included.
- the trainer terminal may calculate the impact point based on the first laser image and the second laser image.
- the image shooting training system includes a simulated firearm including a recoil module, a switching module, and a sensor module, and a posture recognition device for recognizing a posture of a user, and recoil when triggered through the recoil module.
- a simulated firearm including a recoil module, a switching module, and a sensor module, and a posture recognition device for recognizing a posture of a user, and recoil when triggered through the recoil module.
- the image shooting training system can provide realistic shooting training results by correcting the impact point of the laser based on the tilt of the simulated firearm.
- the image shooting training system includes an auxiliary screen positioned between the user and the screen, and based on the first laser image formed on the screen and the second laser image formed on the auxiliary screen, the muzzle direction (or, Ballistics) to provide more realistic shooting training results.
- FIG. 1 is a block diagram illustrating an image shooting training system according to embodiments of the present invention.
- FIG. 2 is a layout view illustrating an example of the image shooting training system of FIG. 1.
- 3A to 3C are diagrams illustrating an example of a simulated firearm included in the image shooting training system of FIG. 1.
- FIG. 3D is a diagram illustrating an example of a shooting training image controlled by the simulated firearm of FIG. 3A.
- FIG. 4A is a diagram illustrating an example of a camera apparatus included in the image shooting training system of FIG. 1.
- 4B is a diagram illustrating an example of a motion recognition apparatus included in the image shooting training system of FIG. 1.
- FIG. 5 is a block diagram illustrating an example of a trainer terminal included in the image shooting training system of FIG. 1.
- 6A and 6B are diagrams illustrating a process of correcting an impact point in the trainer terminal of FIG. 5.
- FIG. 7 is a diagram illustrating an example of a shooting training result output from the image shooting training system of FIG. 1.
- FIG. 8 is a diagram illustrating another example of the image shooting training system of FIG. 1.
- FIG. 9 is a diagram illustrating an image shooting training method performed in the image shooting training system of FIG. 1.
- FIG. 1 is a diagram illustrating an image shooting training system according to embodiments of the present invention.
- FIG. 2 is a layout view illustrating an example of the image shooting training system of FIG. 1.
- the image shooting training system 100 includes a controller terminal 110, a trainer terminal 120, a display device 130, a screen 140, a simulated firearm 150, and a camera device 160.
- the controller terminal 110, the trainer terminal 120, the display device 130, the simulated firearms 150, and the camera device 160 may be connected through a wired or wireless network.
- the wired / wireless network may be a network formed using a communication method such as wired Internet, wireless mobile communication, WiFi, Zigbee, or Blue Boot.
- the image shooting training system 100 sets up a shooting training environment (for example, a shooting scenario, etc.) through the controller terminal 110, and sets a virtual shooting training space based on the shooting training environment using the trainer terminal 120. And generate image data of at least a portion of the virtual shooting training space based on the simulated firearm, and display a shooting training image corresponding to the image data on the screen 140 using the display device 130, and simulate Recognizes a laser image fired from the gun 150 and pointing on the screen 140 through the camera 160, and the status information (for example, location information, posture / tilt information) and lazy of the simulated firearm 150.
- the impact point can be calculated based on the image.
- the image shooting training system 100 may generate and display an impact image based on the calculated impact point, and generate / store / display the shooting training result.
- the controller terminal 110 may receive a control signal from the controller, and set up the shooting training environment based on the control signal.
- the controller terminal 110 may include a shooting mode (for example, zero shooting mode, a recording shooting mode, an antiaircraft shooting mode, a squad combat (casting) mode, etc.), a type of firearm (for example, a rifle, a pistol, and the like).
- a shooting mode for example, zero shooting mode, a recording shooting mode, an antiaircraft shooting mode, a squad combat (casting) mode, etc.
- a type of firearm for example, a rifle, a pistol, and the like.
- the controller terminal 110 may be a place (eg, training ground, urban area), the season (for example, summer, winter), the time zone (for example, daytime, nighttime), the weather situation where the shooting training is performed (Eg, snow, rain, fog, etc.), the number of targets (e.g., the number of enemy forces if the shooting mode is street fighting), and the like.
- the controller terminal 110 may provide the trainer terminal 120 with the set shooting training environment setting information.
- the controller terminal 110 may load the user information of the user USER participating in the shooting training from the database, and update the user information based on the shooting training result information generated at the end of the shooting training.
- the controller terminal 120 is implemented as a computer device, a server, and the like, an input unit such as a mouse, a keyboard, a touch screen, an output unit such as a speaker, a monitor, a printer, and the like, a center for processing various programs or data and controlling each component. It may include a processing unit (CPU), a storage unit for storing a program or data.
- CPU processing unit
- storage unit for storing a program or data.
- the trainer terminal 120 may configure a virtual shooting training ground (or a virtual space) based on the shooting training environment setting information provided from the controller terminal 110. For example, the trainer terminal 120 may load the shooting mode data based on the shooting mode and edit the shooting mode data based on setting information such as a place, a season, a time zone, a weather situation, and the like.
- the trainer terminal 120 may generate image data of at least a portion of the virtual shooting training field located in the gaze direction based on the user USER (or the simulated firearm 150).
- the gaze direction may be a gaze direction of a character located in the virtual shooting training field corresponding to the user USER.
- the trainer terminal 120 may generate image data corresponding to the posture of the user USER recognized by the gesture recognition apparatus 170. For example, when the posture of the user USER is a standing position, image data may be generated based on a character having a height of 170 cm. As another example, when the posture of the user USER is a sitting posture, image data may be generated based on a character having a height of 100 cm.
- Foreground (target position) recognized by the user (USER) according to the posture of the user in the actual shooting environment, ballistic of the bullet (for the trajectory of the bullet, for example, the height of the bullet launch point, the path, etc.) This may vary. Accordingly, the trainer terminal 120 (or the image shooting training system 100) changes the shooting training image (or image data corresponding to the shooting training image) according to the posture of the user USER, thereby causing the user USER to change. Can provide a more realistic shooting environment.
- Trainer terminal 120 is based on the laser image acquired through the camera device 160 to be described later and the state information of the simulated firearms 150 obtained from the simulated firearms 150 and the ballistic and / or impact point (for example, virtual Calculate the trajectory and / or impact point of the laser in the shooting training site, and use the impact image data (e.g., image data including triggered images, shot images, etc.) and shooting training result information based on the trajectory and / or impact point. Can be generated.
- the state information of the simulated firearms 150 may include position information of the simulated firearms 150 (for example, coordinates in a three-dimensional space), trigger signals, attitude information (for example, slope information), and the like. have.
- the structure for calculating the impact point will be described later with reference to FIGS. 6A to 6D.
- the display device 130 may display the shooting training image on the screen 140 based on the image data.
- the display device 130 is a beam projector that shines an image onto the screen 140 using light, and as illustrated in FIG. 2, the front surface of the screen 140 (or the user and the screen 140). Can be placed between)).
- the display device 130 is not limited thereto.
- the display device 130 may be implemented as a CRT / LCD / LED display device to be integrated with the screen 140 or may be head mounted display. Implemented as a device (HMD) can be worn by the user (USER).
- the simulated firearm 150 generates and fires a laser, and may generate a trigger signal by detecting a trigger of the trigger.
- the simulated firearms 150 may include components constituting the general firearm (for example, triggers, barrels, guns, etc.), and may also include a laser module that generates a laser, a trigger module, and the like. .
- a detailed configuration of the simulated firearms 150 will be described later with reference to FIG. 3.
- the camera device 160 captures a laser image formed (or pointed) on the screen 140 by a laser fired from the simulated firearm 150, and coordinate information (for example, the captured laser image or the laser image). , Coordinate information of the laser image on the screen 140) may be provided to the trainer terminal 120.
- the trainer terminal 120 calculates the coordinate values of the trajectory and / or impact point of the laser based on the laser image, and calculates the shooting training result score based on the coordinate values of the target and the preset target point.
- the image of the target (or an object located on the trajectory) may be corrected to generate impact image data including the impact image.
- the display device 130 may display the impact image on the screen 140 based on the impact image data.
- the image shooting training system 100 may further include a gesture recognition apparatus 170.
- the gesture recognition apparatus 170 may recognize an operation (eg, a posture) of a user USER (or a user performing image shooting training) having the simulated firearm 150.
- the gesture recognition apparatus 170 may be implemented as a camera, and may be disposed above the screen 140 to capture a user USER, and may analyze the captured user image to recognize the user's motion. have.
- the gesture recognition apparatus 170 may have a first side of the user USER (for example, a right direction based on the user USER looking at the screen 140).
- Transmitters installed at different heights to transmit sensing signals such as infrared rays and ultrasonic waves, and infrared receivers installed in correspondence with the transmitters on a second side (for example, to the left of the user)
- a posture of the user USER eg, a posture such as standing, sitting, or lying down
- the trainer terminal 120 may generate / correct the shooting training image based on the recognized posture (or user posture information) of the user USER, and calculate the impact point.
- the gesture recognition apparatus 170 will be described later with reference to FIG. 4B.
- the image shooting training system 100 may further include a control device 180.
- the control device 180 may control the operation of the simulated firearm 150.
- the controller 180 supplies / distributes power to the simulated firearms 150 and the like, and receives a signal from the simulated firearms 150, the motion recognition device 170, and the like. ) Can be delivered.
- the control device 180 is connected to the simulated firearms 150 by wire / wireless to supply power for generating a laser and a reaction effect, and triggers a trigger signal (or a simulation) by triggering the simulated firearms 150. Whether the firearm 150 is fired) may be transmitted to the trainer terminal 120 and the controller terminal 110.
- the image shooting training system 100 sets up a shooting training environment (or training scenario) through the controller terminal 110, and sets fire using the trainer terminal 120. Construct a virtual shooting training ground based on the training environment, generate image data of at least a portion of the virtual shooting training ground in a gaze direction based on the simulated firearms 150, and correspond to the image data using the display device 130.
- the target training training image is displayed on the screen 140, and the laser image formed on the screen 140 by the laser emitted from the simulated firearms 150 is recognized through the camera device 160, and the recognized laser image Based on the ballistics or impact points can be calculated, training results can be generated.
- the image shooting training system 100 recognizes the posture of the user USER, displays a shooting training image corresponding to the posture of the user USER, and corrects the impact point based on the posture of the user USER, A more realistic shooting training environment can be provided to the USER.
- 3A to 3C are diagrams illustrating an example of a simulated firearm included in the image shooting training system of FIG. 1.
- the simulated firearm 150 may include a firearm main body 310, a trigger module 320, a laser module 330, a recoil module 340, and a switch module 350.
- the firearm body 310 is substantially the same as the actual firearm, and may include, for example, a gun barrel, forearm, trigger, scale, scale, and the like.
- the firearm main body 310 may be a real firearm capable of real shooting, or a model firearm having such a shape and weight.
- the gun body 310 is a K-2 rifle and may be manufactured to have characteristics such as an aluminum alloy (ABS) material and a weight of 3.26 Kg.
- the firearm body 310 may be a pistol or a common firearm (M-60).
- the trigger module 320 generates a trigger signal according to the operation (or backward movement) of the trigger, and may be inserted into or detached from the gun body 210.
- the main body of the trigger module 320 is coupled to the lower end of the trigger, and the extension of the trigger module 320 protrudes from the main body of the trigger module 320 to the trigger. Can be arranged adjacently.
- the extension of the trigger module 320 moves, but when the extension reaches a specific position, a switching operation of the trigger module 320 (eg, a turn-on operation of a switch in the trigger module 210).
- a trigger signal can be generated.
- the trigger signal may be provided directly or indirectly in a wired / wireless manner (eg, BLE) to the recoil module 340, the trainer terminal 120, the camera device 160, and the like.
- the trigger module 320 is interlocked with the select lever to operate in a mode such as safety, single shot, and fire. For example, when the trigger is pulled in a safe mode, the trigger module 320 may not generate a trigger signal. For example, when the trigger is held in the continuous mode, the trigger module 320 may repeatedly generate a trigger signal at a specific period until the trigger is restored.
- the laser module 330 generates the laser and directs the laser in the direction of the muzzle of the firearm main body 310 (ie, the direction indicated by the muzzle of the simulated firearm 150, the direction in which the bullet is fired from the simulated firearm 150). You can fire.
- the laser module 330 is implemented substantially the same as a general laser target indicator, and can generate and launch an invisible infrared ray laser.
- the maximum wavelength of the laser may be 850 nm
- the output is 10 mW
- the diameter of the focused laser beam (eg, the diameter of the laser emitted from the laser module 230) may be 0.1 mm or less.
- the laser module 330 may be detachable from the gun body 210.
- the laser module 330 may be inserted into a barrel of the gun body 310.
- the direction of the laser emitted by the laser module 330 may coincide with the direction in which the actual bullet is fired.
- the laser module 330 may be implemented to surround the barrel of the gun body 310. In this case, the direction of the laser emitted by the laser module 330 may coincide with the direction of the eye axis of the user USER.
- the recoil module 340 may generate a recoil in the simulated firearm 150. That is, the recoil module 340 may implement a recoil effect when the simulated firearm 150 is triggered. For example, the recoil module 340 may implement a recoil effect using an electronic solenoid method.
- the recoil module 340 supplies current to the solenoid (ie, circular coil) in response to the trigger signal generated by the trigger module 320, and the ball of the ferromagnetic material in the reaction module 340 moves to the magnetic field generated by the solenoid. Recoil can occur.
- Recoil module 340 may be detachable to the gun body (310).
- the recoil module 240 is implemented in a magazine form and is inserted into the gun body 310 in the same manner as the magazine and may have a metal (eg, a duralumin alloy, SPCC, SUM18, etc.). .
- the switch module 350 is a location of a character (or simulated firearm 150) corresponding to the user USER in a virtual space (ie, a virtual shooting training field, for example, a virtual shooting training place where street fighting is performed). And the at least one of a line of sight of the character, the switch module 350 may include a movement switch 351 and a line of sight switch 352.
- the movement switch 351 may generate a movement signal for moving the character in the virtual space generated by the trainer terminal 120. That is, the character in the virtual space may move according to the movement of the movement switch 351.
- the movement switch 351 may be implemented as a joystick and may be attached to the left side (or the right side) of the barrel cover of the gun body 210. In this case, the user USER may operate the movement switch 351 using the thumb of the left hand (or the right hand) holding the barrel cover. Similar to the general joystick, the movement signal in the forward / backward / left / right direction may be generated according to the movement of the front / rear / left / right direction of the movement switch 351.
- the trainer terminal 120 may receive a movement signal through a wired or wireless communication scheme and move the character in the virtual space in response to the movement signal.
- the gaze switch 352 may control the gaze direction of the character in the virtual space.
- the gaze switch 352 may operate in a button manner and may be attached to the right side (or left side) of the barrel cover of the gun body 210.
- the user USER can operate the gaze switching switch 352 using the index finger of the left hand (or the right hand) holding the barrel cover.
- the first switch 352-1 generates a first gaze switching signal for moving the gaze of the character to the left with respect to the character
- the second switch 352-2 refers to the character with the gaze of the character.
- the second gaze switching signal may be generated to move to the front
- the third switch 352-3 may generate a third gaze switching signal to move the gaze of the character to the right based on the character.
- the trainer terminal 120 receives the gaze switching signals through wire / wireless communication, generates image data corresponding to the gaze of the character in response to the gaze switching signals, and displays the shooting training image through the display device 130. Can be.
- the switch module 350 is used in a training scenario in which a character moves, such as a street fighting mode, and in a training scenario in which a movement of a character is not required, such as a zero shooting mode and a recording shooting mode, by setting the switch module 120. Operation of 350 may be limited.
- the switch module 350 may further include a moving speed change switch (not shown) (or an acceleration switch).
- the movement speed change switch may accelerate / decelerate the movement speed of the character and, for example, may switch the walking motion and the running motion of the character.
- the movement speed changeover switch operates in a button manner and can be attached above the trigger of the gun body 310.
- the user USER may operate the movement speed change switch by using the thumb of the right hand (or the left hand) that grasps the handle of the gun body 310.
- the switch module 350 may be composed of one module.
- the movement switch 351 and the gaze switch 352 may be implemented to cover the barrel of the firearm main body 310 (for example, to surround the barrel cover of FIG. 2C), and may be provided in the switch body.
- the mobile terminal and the gaze switching signals may be provided to the trainer terminal 120 through one communication module.
- the simulated firearms 150 may further include a sensor module that measures the slope of the simulated firearms 150.
- the sensor module may include a multi-axis sensor (for example, a 9-axis sensor), and may detect a state of a firearm (or a posture of a user) using the multi-axis sensor.
- the multi-axis sensor is implemented integrally with the switch module 350, disposed in the upper part of the barrel parallel to the barrel of the gun body 310, using an accelerometer, an angometer, a geomagnetic machine and the like
- the tilt of the firearm main body 310 for example, the tilt in the left / right direction as well as the front / rear direction (or the up / down direction) may be measured.
- the direction of the muzzle measured by the sensor module, the inclination of the main body of the gun is changed by the user's gaze (for example, when the direction of the gun moves to the left over a certain distance or a certain angle, the character's gaze moves to the left), It can be used to calculate and correct the impact point.
- the sensor module has been described as being provided in the switch module 350, but the sensor module is not limited thereto.
- the sensor module may be included in the laser module 330 shown in FIGS. 3B and 3C.
- the simulated firearm 150 may fire a laser through the laser module 330 and generate recoil based on a trigger signal generated through the trigger module 320.
- the triggering module 210, the laser module 330 and the like can be implemented in a form detachable to the gun body 210, it is possible to enable the firing training using the actual firearm.
- the simulated firearm 150 may include a switch module 250 and a sensor module to control the movement (movement, gaze switching, etc.) of the character in the virtual space.
- FIG. 3D is a diagram illustrating an example of a shooting training image controlled by the simulated firearm of FIG. 3A.
- the image shooting training system 100 captures a shooting training image displayed on the screen 140 based on at least one of a laser emitted from the simulated firearm 100 and movement information of the simulated firearm 100. Can be controlled.
- the screen 140 may include a first area A1.
- the image shooting training system 100 changes the shooting training image regardless of the position / movement of the laser image. You can't let that happen.
- an image shooting training system 100 may display the shooting training image based on the first point P1. That is, the shooting training image may slide to the left.
- the sliding speed may be determined based on a distance (eg, the first distance L1) from which the laser image deviates from the first area A1, a rotation speed of the simulated firearm 150, and the like in response to the movement of the laser image.
- the image shooting training system 100 is not only a switch module 350 included in the simulated firearm 150, but also a laser image formed by a laser emitted from the simulated firearm 150, a moving speed of the simulated firearm 150, and the like. It is possible to control the shooting training video based on. Accordingly, the user USER may control the shooting training image through various intuitive methods as well as the switch module 350.
- FIG. 4A is a diagram illustrating an example of a camera apparatus included in the image shooting training system of FIG. 1
- FIG. 4B is a diagram illustrating an example of a motion recognition apparatus included in the image shooting training system of FIG. 1.
- the camera device 160 sets (and corrects) a coordinate system based on a test image (for example, an image including a grid pattern) displayed on the screen 140, and adjusts the coordinate system to the coordinate system. Based on the coordinates of the laser image formed on the screen 140 by the laser emitted from the simulated firearms 150 may be calculated.
- a test image for example, an image including a grid pattern
- the gesture recognition apparatus 170 may include a plurality of sensors positioned at different heights in a specific direction (for example, left / right directions based on the user USER). It may include.
- the gesture recognition apparatus 170 may include a first sensor 411 located at a first height H1 (eg, 20 cm in height) from a floor on which a user USER (or a simulated firearm 150) is located. ), A second sensor 421 located at a second height H2 (eg, height 80 cm) from the bottom surface, a third sensor located at a third height H3 (eg, height 150 cm) from the bottom surface 431 may be included.
- the first to third sensors 411, 421, and 431 are positioned on the same axis in the third direction Z3 perpendicular to the bottom surface, and the first to third sensors 411, 421, and 431 are positioned on the same axis.
- the sensing signal eg, ultrasonic waves, infrared rays, etc.
- the sensing signal may be transmitted at a specific angle toward the user USER (eg, in the second direction D2) at a direction parallel to the bottom surface.
- the gesture recognition apparatus 170 may include a first reception sensor 412 located at a first height H1 of the user USER, a second reception sensor 422 located at a second height H2, and a third height ( And a third receiving sensor 432 located at H3), and may receive sensing signals transmitted from the first to third sensors 411, 421, and 431, respectively.
- the first to third sensors 411, 421, and 431 have an operating frequency of 40 Hz, and locate an object (or a user) located within a 15 degree angle range in a range of 0.02 to 4 m. It can be recognized with an accuracy of 0.3 cm.
- the first to third sensors 411, 421, and 431 are of a specific size reflected (or transmitted, blocked) by the user USER.
- the sensor 100 may receive a sensing signal (for example, an ultrasonic signal), and based on this, the gesture recognition apparatus 170 may recognize a line attitude of the user USER.
- a sensing signal for example, an ultrasonic signal
- the gesture recognition apparatus 170 may determine the user USER. Can recognize the prone position.
- the image shooting training system 100 recognizes a posture of the user USER through the gesture recognition apparatus 170, generates / displays a shooting training image corresponding to the posture of the user USER, and Fire control can be performed. For example, when the user USER is sitting or standing in a recording shooting mode such as prone shooting, the image shooting training system 100 may simulate the firearm 150 based on the posture of the user USER. ) Can be triggered. In addition, the image shooting training system 100 may correct the impact point to be described later based on the posture of the user USER.
- FIG. 5 is a block diagram illustrating an example of a trainer terminal included in the image shooting training system of FIG. 1.
- the trainer terminal 120 may include a first processing device 510 and a second processing device 520.
- the first processing device 510 configures the virtual shooting training ground based on the shooting training environment information provided from the controller terminal 110, and based on the USER (or a character in the virtual shooting training ground) of the virtual shooting training ground. Image data for at least a portion may be generated, and impact image data may be generated based on the impact point of the laser emitted from the simulated firearm 150.
- the first processing apparatus 510 may include a scenario editor 511, an image processor 512, and an impact processor 513.
- the scenario editing unit 511 may edit a specific scenario based on the shooting training environment information. For example, the scenario editing unit 511 may load / edit the corresponding scenario from the scenario DB included in the database 530 based on the shooting mode, the number of bullets, the type of firearm, the firing mode, the shooting information, and the like.
- the image processor 513 loads the virtual shooting training field data corresponding to the scenario from the image database, loads a gun model, etc. from the 3D model database included in the database 530, and configures the virtual shooting training ground, and the user (USER) ( Alternatively, image data may be generated based on a character).
- the image processor 510 may be implemented as a 3D engine (eg, an image program for generating a 3D image).
- the image processor 513 determines the viewpoint (eg, height of the gaze) of the character based on the posture of the user (eg, the line attitude) recognized by the motion recognition sensor 170.
- the image data corresponding to the viewpoint may be generated.
- the impact correction unit 512 may calculate the actual impact point by correcting the impact point of the laser based on the laser image pointed to the screen 140.
- the impact correction unit 512 may calculate the actual impact point by correcting the impact point of the laser using a ballistic equation set in consideration of gravity, air resistance, and the like. The configuration of calculating the actual impact point will be described later with reference to FIGS. 6A and 6B.
- the first processing device 510 may further include a training analyzer.
- the training analyzer may generate the firing training result based on the actual impact point. For example, the training analyzer may determine whether to hit or calculate a shooting score based on the position information (eg, coordinate information) of the actual impact point and the coordinate information of the target.
- the training analyzer generates a shooting training result including the impact point of the laser, the actual impact point, and the posture information (for example, the tilt information) of the simulated firearm 150, and the user (USER) through the display device 130. ) Can give the result of fire training.
- Shooting training results will be described later with reference to FIG.
- the training analyzer may track the movement path of the laser during the first time period including the triggering time point, and output the movement path of the laser together with the shooting training result. For example, a fire start signal is transmitted from the controller terminal 120 at a first time point (for example, 0 seconds), and a fire stop signal from the controller terminal 120 at a second time point (for example, 10 seconds). Is transmitted, the camera device 160 may sense the laser image pointed on the screen 140 periodically (eg, at 1/60 second intervals) during the first period between the first time point and the second time point. Can be. In this case, the training analyzer may generate the movement path data of the laser based on the sensed laser images and the sensed time point. The movement path data of the laser may be visually output through the image processing unit 512 and the display device 130, and the user USER recognizes the movement of the laser (ie, the shaking of the shooting posture) before the triggering or the triggering time. can do.
- a fire start signal is transmitted from the controller terminal 120 at a first time point (
- the second processing device 520 may control the display device 130, the simulated firearms 150, and the camera device 160.
- the second processing apparatus 520 may include a camera controller 521, a communication unit 522, an image corrector 523, an image capture unit 524, and a controller 525.
- the camera controller 521 may control an operation of the camera device 160 and process a laser image provided from the camera device 160.
- the camera controller 521 controls the camera device 160 to capture (or sense) the laser image based on the trigger signal generated by the simulated firearm 150, and from the captured laser image, the laser image.
- the coordinate of can be calculated.
- the camera controller 521 may convert a coordinate system (eg, based on a test image displayed on the screen 140 and an image sensed by the camera device 160).
- a coordinate system for converting the coordinates on the screen 140 into the coordinates in the virtual space may be set (and corrected), and the coordinate values of the laser image may be calculated based on the converted coordinate system.
- the communication unit 522 may perform data communication with the controller terminal 110, the first processing device 510, and the like.
- a fire control signal for example, a fire start signal, a fire stop signal, etc.
- the controller terminal 110 may receive the coordinate values of the laser image from the controller terminal 110, and the coordinate values of the laser image from the first processing device 510.
- the image corrector 523 may determine whether the shooting training image output on the screen 140 is distorted, and allow the first processing device 510 to correct the shooting training image.
- the image capturing unit 524 captures the shooting training image based on a specific signal (for example, a trigger signal), and the control unit 525 includes a camera control unit 521, a communication unit 522, an image correcting unit 523, and The operation of the image capture unit 524 may be controlled.
- a specific signal for example, a trigger signal
- the database 530 may include a user database, a shooting database, a reservation database, and the like.
- the user database may store user information (eg, group number, name, etc.) of a user USER participating in shooting training.
- the user USER may be a regular army, a reserve army, or the like.
- the shooting database may store the shooting training result provided through the controller terminal 110 from the first processing device 510.
- the shooting training result may be stored in response to the user information, or may be stored in response to the shooting schedule.
- the reservation DB may store information on shooting training schedules, participants, participants.
- the trainer terminal 120 configures a virtual shooting training ground (or a virtual space) based on shooting training environment setting information provided from the controller terminal 110, and a user (or, Character) to generate image data of at least a portion of the virtual shooting training field located in the gaze direction, and calculates the impact point based on the laser image acquired through the camera device 160.
- the first processing unit 510 and the second processing unit 520 is an example of dividing the trainer terminal 120 based on the image processing function and the control function, the first processing device 510 and the second The processing device 520 is not limited to this.
- the second processing apparatus 520 may include an impact correcting unit 513.
- 6A and 6B are diagrams illustrating a process of correcting an impact point in the trainer terminal of FIG. 5.
- the first axis X represents the first direction (or the direction of the character's gaze in the virtual space) from the simulated firearms 150 to the screen 140
- the second axis Y represents the first axis.
- the horizontal direction perpendicular to the first axis X is shown
- the third axis Z indicates the vertical direction perpendicular to the first axis X and the second axis Y.
- the reference point B0 is a starting point of the line of sight of the line of sight or the user USER, and may intersect a line passing through the scope of sight and the scope of the simulated firearm 150.
- the firing point SO indicates the starting point at which the bullet is fired and may be determined based on the separation distance between the extension line of the muzzle and the visual axis (or the shortest distance therebetween). For example, when the laser module 330 is inserted into the muzzle, the line of sight and the extension line of the muzzle coincide, and the firing point S0 coincides with the reference point B0. For another example, when the laser module 230 is installed in a form surrounding the muzzle, the firing point S0 may be spaced apart by a specific value z0 based on the reference point B0.
- the first curve G1 represents the trajectory of the laser emitted from the simulated firearm 150 and may coincide with the line of sight of the simulated firearm 150 (or the eye axis of the user USER).
- the first curve G1 may be substantially parallel to the first axis X.
- the first impact point P1 is an impact point (or aiming point) of the laser to the target, and may be a reference for calculating the actual impact point (that is, the point where the actual bullet hits).
- the second curve G2 is fired from the simulated firearm 150 when the posture of the user USER is not considered (that is, when the simulated firearm 150 is not inclined and is assumed to be parallel to the visual axis). It can indicate the trajectory of the shot. That is, when it is assumed that the bullet is fired from the simulated firearm 150, the trajectory of the bullet is displayed, and the second curve G2 may be represented in a parabolic form by gravity, air resistance, or the like (particularly, gravity).
- the third curve G3 may represent the trajectory of bullets emitted from the simulated firearm 150 when the posture of the user USER is taken into consideration (that is, when the posture or the slope of the simulated firearm 150 is taken into account).
- the third curve G3 appears in a parabolic form similar to the second curve G2, but since the firing point S0 varies according to the posture of the user USER, the path of the third curve G3 is the second. May vary from curve G2.
- the trainer terminal 120 may calculate the actual impact point by correcting the impact point of the laser based on the tilt (or tilt information) of the simulated firearm 150.
- the trainer terminal 120 may calculate the first impact point P1, which is the impact point of the laser, based on the laser image pointed to the screen 140.
- the camera device 160 recognizes the first coordinates of the laser image pointing on the screen 140, and the trainer terminal 120 determines a second point in the virtual space based on the first coordinates of the laser image.
- a first trajectory that is, a straight line corresponding to the first curve G1 connecting the first point and the second point at which the simulated firearm 150 is located, and the object located on the first trajectory.
- the point where the first trajectory meets may be calculated.
- the trainer terminal 120 determines a second point in the virtual space based on the first coordinates of the laser image, and passes the first trajectory through the second point based on the tilt information of the simulated firearm 150. And calculate a point where the object located on the first trajectory meets the first trajectory (that is, an impact point).
- the trainer terminal 120 may determine the firing direction of the bullet based on the inclination and the initial escape angle of the simulated firearm 150, and separate the firing speed of the bullet into the element speeds based on the firing direction of the bullet.
- the initial escape angle is an acute angle in which the firing direction of the bullet is formed with the visual direction (for example, the laser firing direction) so that the actual bullet trajectory coincides with the line of sight (or the line of sight) at a distance of 50 m away from the firearm. Can be.
- the initial escape angle and firing speed may be preset for each type of firearm (eg, rifle, pistol, firearm, etc.).
- the element velocities may be vector components parallel to the first to third axes.
- the trainer terminal 120 divides the firing direction of the bullet into element angles ⁇ 1 and ⁇ 2 with respect to the first to third axes X, Y, and Z on the coordinate system shown in FIG. 6A.
- the bullet velocity V1 of the bullet may be divided into a first velocity Vx1, a second velocity Vx2, and a third velocity Vx3 based on the element angles.
- the trainer terminal 120 may calculate the impact correction value using the ballistic equation. For example, the trainer terminal 120 calculates the moving time T1 of the bullet based on the first speed Vx1 as shown in Equation 1 below, and the impact correction value based on the moving time T1 of the bullet. (Cy, Cz) can be calculated.
- X1 is the distance between the simulated firearms 150 (or the character) and the target in the virtual space
- Cy represents a second correction value in the direction of the second axis Y
- Cy0 represents the second axis Y.
- the second initial error in the direction, Cz may indicate a third correction value in the third axis Z direction
- Cz0 may be a third initial error in the third axis Z direction.
- the second initial error Cy0 is the second component Y0 in the direction of the second axis Y of the firing point S0
- the third initial error Cz0 is the third axis of the reference starting point S0 ( It may be a third component Z0 in the Z) direction.
- the trainer terminal 120 calculates the second impact point P2 (that is, the actual impact point) by correcting the first impact point P1 (that is, the impact point of the laser) based on the impact correction values Cy and Cz.
- the second impact point P2 may be represented by (X1, Y1-Cy, Z1-Cz).
- the calculated first impact point P1 and the second impact point P2 are included in the shooting result information together with the inclination information of the simulated firearm 150, and the shooting result information includes the controller terminal 110, the trainer terminal 120, and the like. Can be provided to the user (USER) through.
- the image shooting training system 100 corrects the impact point of the laser (that is, the first impact point P1) by using the trajectory (or ballistic equation) of the actual bullet, thereby correcting the actual impact point (that is, the second impact point P2). ) Can be calculated and displayed. Accordingly, the image shooting training system 100 may improve the shooting ability of the user USER by causing the user USER to visually recognize the accuracy of the shooting posture to induce the correction of the shooting posture.
- the trainer terminal 120 may calculate the actual impact point by correcting the impact point of the laser by using a lookup table including the impact correction value for the element angle constituting the firing direction of the bullet.
- the first lookup table 621 may include a second correction value Cy for the first element angle ⁇ 1 illustrated in FIG. 6A.
- the second correction value Cy may be C11 (eg, 1 cm).
- the second distance section L2 eg, 10 to 20 m
- the second correction value Cy may be C22 (for example, 2 cm).
- the second correction value Cy may be set differently according to the type of firearm.
- the second lookup table 622 may include a third correction value Cz for the second element angle ⁇ 2 illustrated in FIG. 6A. Since the second lookup table 622 is substantially the same as or similar to the first lookup table 621, the overlapping description will not be repeated.
- the trainer terminal 120 may calculate the actual impact point (ie, the second impact point P2) by correcting the impact point of the laser (that is, the first impact point P1) more quickly.
- the trainer terminal 120 may calculate the actual impact point by correcting the impact point of the laser based on the slope of the simulated firearm 150. Can be.
- the trainer terminal 120 provides the user USER with a shooting training result including the impact point of the lazy, the actual impact point, and the posture information of the user (or the tilt information of the simulated firearm 150). It is possible to induce correction of the shooting posture and to enable more accurate shooting.
- the general ballistic equation assumes that the user's posture is correct (for example, the simulated firearm 150 is vertically positioned on the floor), and the ballistic ( For example, a ballistic in the form of a parabola) is derived.
- the firearm may not be perpendicular to the floor surface, and the actual bullet may be fired to the left / right relative to the aiming direction. Therefore, the image shooting training system 100 may provide a more realistic shooting training result by performing the impact point correction due to the posture of the user.
- FIG. 7 is a diagram illustrating an example of a shooting training result output from the image shooting training system of FIG. 1.
- the first point P1 may represent the impact point of the laser sensed at the time when the trigger signal is generated, and the second point P2 may represent the actual impact point generated by correcting the impact point of the laser.
- the inclination vector G represents the inclination of the simulated firearm 150
- the direction of the inclination vector G based on the center of the circle represents the inclination direction of the simulated firearm 150
- the magnitude of the inclination vector G is It may indicate the degree of inclination (size) of the simulated firearms (150).
- the user USER may have a problem in shooting posture based on the second point P2 located on the left side and the inclination vector G relative to the first point P1 which is the impact point of the laser (for example, a simulated firearm). 150) to the left side) can be recognized.
- the path R may represent a movement path of the laser impact point for a time from when the shooting start signal is generated to when the shooting end signal is generated. For example, the path R may move toward the center from the starting point of shooting to the target and then move toward the upper direction of the target at the time of triggering. Based on this, the user USER may recognize a problem in which the muzzle of the simulated firearm 150 is heard at the time of triggering.
- FIG. 8 is a diagram illustrating another example of the image shooting training system of FIG. 1.
- the image shooting training system 100 may further include an auxiliary screen 141 in addition to the screen 140.
- the screen 140 is positioned to be spaced apart by the first distance L1 in the first direction D1 based on the simulated firearm 150 (or the user USER), and the auxiliary screen 141 is the simulated firearm 150. It may be spaced apart by a second distance (L2) relative to. Here, the second distance L2 may be shorter than the first distance L1.
- the screen 140 is made of a material that reflects light (visible light, infrared light), and may display an image provided from the display device 130.
- the auxiliary screen 141 may be implemented as an infrared filter (eg, a filter that reflects only infrared light) to transmit visible light and to reflect a portion of the laser emitted from the simulated firearm 150.
- the laser When the laser is fired from the simulated gun 150, a portion of the laser is reflected (or pointed) on the secondary screen 141 to form a second laser image LI2, with the remainder of the laser on the screen 140. May be pointed at to form the first laser image LI1.
- the camera device 160 recognizes the first and second laser images LI1 and LI2, respectively, and the trainer terminal 120 performs the laser based on the first and second laser images LI1 and LI2.
- the trajectory of can be calculated.
- the camera device 160 includes the second sub-camera device 162 located within the second distance in the first direction D1 from the simulated firearm 150 and the first direction D1 from the simulated firearm 150. ) And a first sub-camera device 161 positioned in a range between the first and second distances, and using the first and second sub-camera devices 161 and 162.
- the images LI1 and LI2 may be sensed respectively.
- the trainer terminal 120 may calculate the heading direction of the laser or the muzzle direction of the simulated firearm 150 based on the coordinates of each of the first and second laser images LI1 and LI2. More accurate impact point correction can be performed based on this. Since the configuration of correcting the impact point based on the muzzle direction (or the laser advancing direction) is substantially the same as the impact point correction described with reference to 6a, the overlapping description will not be repeated.
- the image shooting training system 100 may accurately measure the tilt of the simulated firearm 150 even if it does not have a separate sensing module for sensing the slope of the simulated firearm 150.
- the position (eg, height) of the simulated firearm 150 may be measured more accurately. Can be. Accordingly, the image shooting training system 100 may more accurately perform the impact point correction based on the more accurately measured inclination of the simulated firearm 150 and / or the position of the simulated firearm 150.
- FIG. 9 is a diagram illustrating an image shooting training method performed in the image shooting training system of FIG. 1.
- the method of FIG. 9 may be performed in the image shooting training system 100 of FIG. 1.
- the method of FIG. 9 may set an image shooting training environment (S910). As described with reference to FIG. 1, the method of FIG. 9 may set an image shooting training environment such as a shooting mode through the controller terminal 110.
- the method of FIG. 9 configures the virtual shooting training ground based on the image shooting training environment through the trainer terminal 120 (S920), and at least a portion of the virtual shooting training ground positioned in the gaze direction based on the simulated firearm 150.
- Image data may be generated (S930).
- the method of FIG. 9 may display the shooting training image on the screen 140 based on the image data through the display device 130 (S940).
- shooting training is started through the controller, and according to the shooting operation (or triggering operation) of the user USER, the simulated firearm 150 generates / fires a laser, and the laser image is displayed on the screen 140 by the laser. Can be formed.
- the method of FIG. 9 may recognize the laser image on the screen 140 through the camera device 160 (S950).
- the method of FIG. 9 calculates the impact point of the laser in the virtual shooting training ground based on the recognized laser image when the trigger signal generated in the simulated firearm 150 is generated (i.e., the point in time at which the trigger signal is generated) ( In operation S960, impact image data may be generated based on the impact point.
- the method of FIG. 9 is based on the inclination and initial escape angle of the simulated firearm 150 through the trainer terminal 120 (ie, the firing angle of the bullet relative to the simulated firearm 150). Determine the firing direction within the virtual shooting training ground and calculate the actual impact point (i.e. the point where the actual bullet is expected to hit) using the bullet's firing direction, bullet velocity, ballistic equation, etc. Can be. Subsequently, the method of FIG. 9 may generate impact image data for the impact point through the trainer terminal 120 and display the impact image through the display device 130.
- the method of FIG. 9 when the shooting training is finished, the method of FIG. 9 generates a shooting training result based on the impact point through the trainer terminal 120, displays the shooting training result through the display device 130, and the controller terminal 120. ) Allows you to store the results of your shot training in a database.
- the present invention can be applied to a virtual shooting training system and a shooting training method for firing a laser on a screen.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
Abstract
Description
본 발명은 영상 사격 훈련 시스템에 관한 것으로, 보다 상세하게는 타겟을 포함하는 영상에 레이저를 발사하여 사격 훈련을 수행하는 영상 사격 훈련 시스템에 관한 것이다.The present invention relates to an image shooting training system. More particularly, the present invention relates to an image shooting training system that performs shooting training by firing a laser onto an image including a target.
일반적인 영상 사격 시스템은, 훈련자의 전면에 설치된 스크린에 프로젝터를 이용하여 영상을 표시하고, 훈련자는 영상에 나타나는 표적을 향해 사격을 수행한다.In a typical image shooting system, an image is displayed by using a projector on a screen installed in front of a trainer, and the trainer performs shooting toward a target appearing in the image.
한국등록특허 제1,314,179호(2013.09.26. 등록)는 영상 사격 훈련 장치에 관한 것으로, 스크린과, 스크린에 영상을 영사하는 프로젝터와, 스크린을 향해 레이저를 발사하는 총기와, 영상에 입사하는 레이저의 모의탄착지점을 촬영하는 영상촬영부와, 모의탄착지점에 기초하여 영상에 표현되는 표적에 대한 명중결과를 연산하는 처리부를 포함하며, 레이저에 의한 모의 탄착지점에 기초하여 탄도궤적을 고려한 사거리별 실제 탄착지점을 연산하여 실제 환경과 동일한 사격 훈련의 성과를 제공한다.Korean Patent No. 1,314,179 (registered on Sep. 26, 2013) relates to an image shooting training apparatus, comprising: a screen, a projector for projecting an image on the screen, a gun for firing a laser toward the screen, and a laser incident on the image. It includes an image photographing unit for photographing the simulated impact point, and a processing unit for calculating the hit result for the target represented in the image based on the simulated impact point, the actual distance by the range considering the trajectory trajectory on the basis of the simulated impact point by the laser The impact point is calculated to provide the same results of shooting training as the actual environment.
그러나, 상기 영상 사격 훈련 장치는 중력만을 고려한 탄환의 탄도궤적을 이용하여 실제탄착지점을 산출할 뿐, 사용자의 자세에 기인한 탄도궤적의 변화를 전혀 고려하고 있지 않아, 실제 사격 환경에서의 사격 결과와 다른 모의 사격 결과를 제공할 수 있다.However, the image shooting training apparatus calculates the actual landing point using the ballistic trajectory of the bullet only considering gravity, and does not consider the change of the trajectory trajectory due to the user's posture, so the shooting result in the actual shooting environment And other simulated shooting results.
본 발명의 일 목적은 실제 사격 환경과 동일한 사격 훈련 성과를 제공할 수 있는 영상 사격 훈련 시스템을 제공하는 것이다.An object of the present invention is to provide an image shooting training system that can provide the same shooting training results as the actual shooting environment.
상기 일 목적을 달성하기 위한 본 발명의 실시예들에 따른 영상 사격 훈련 시스템은, 스크린에 레이저를 발사하는 모의 총기; 상기 스크린 상에 상기 레이저에 의해 형성되는 레이저 이미지를 인식하는 카메라 장치; 영상 사격 훈련 환경을 설정하는 통제관 단말; 상기 영상 사격 훈련 환경에 기초하여 가상 사격 훈련장을 구성하고, 상기 모의 총기를 기준으로 시선 방향에 위치하는 상기 가상 사격 훈련장의 적어도 일부에 대한 영상 데이터를 생성하며, 상기 레이저 이미지에 기초하여 상기 사격 훈련장 내에서 상기 레이저의 탄착점을 산출하고, 상기 탄착점에 기초하여 탄착 영상 데이터를 생성하는 훈련자 단말; 및 상기 영상 데이터에 기초하여 상기 스크린 상에 사격 훈련 영상을 표시하는 표시 장치를 포함 할 수 있다.Imaging target training system according to embodiments of the present invention for achieving the above object, a simulated firearm for firing a laser on the screen; A camera device for recognizing a laser image formed by the laser on the screen; A controller terminal for setting an image shooting training environment; Configure a virtual shooting training ground based on the image shooting training environment, generate image data of at least a portion of the virtual shooting training ground positioned in a gaze direction based on the simulated firearm, and based on the laser image, the shooting training ground A trainer terminal for calculating an impact point of the laser within the laser beam and generating an impact image data based on the impact point; And a display device for displaying a shooting training image on the screen based on the image data.
일 실시예에 의하면, 상기 모의 총기는, 총기 본체; 상기 총기 본체의 방아쇠의 동작에 따라 격발 신호를 발생시키는 격발 모듈; 상기 레이저를 생성하고, 상기 총기 본체의 총구 방향으로 상기 레이저를 발사하는 레이저 모듈; 상기 격발 신호에 기초하여 상기 총기 본체에 반동을 발생시키는 반동 모듈; 상기 총기 본체에 형성되고, 상기 가상 사격 훈련장 내 상기 모의 총기의 위치와 상기 시선 방향 중 적어도 하나를 제어하는 스위치 모듈; 및 상기 모의 총기의 기울기를 측정하는 센서 모듈을 포함 할 수 있다.According to one embodiment, the simulated firearm comprises: a gun body; A trigger module configured to generate a trigger signal according to an operation of the trigger of the gun body; A laser module generating the laser and firing the laser in the direction of the muzzle of the gun body; A reaction module for generating a reaction to the firearm main body based on the trigger signal; A switch module formed on the firearm main body and controlling at least one of a position of the simulated firearm in the virtual shooting training field and the gaze direction; And it may include a sensor module for measuring the slope of the simulated firearm.
일 실시예에 의하면, 상기 영상 사격 훈련 시스템은, 상기 모의 총기가 위치하는 지점의 바닥면을 기준으로 상호 다른 높이에 센싱 신호들을 발사하여 상기 모의 총기의 위치를 인식하는 동작 인식 장치를 더 포함 할 수 있다.According to an embodiment of the present disclosure, the image shooting training system may further include a motion recognition device that recognizes the location of the simulated firearm by firing sensing signals at different heights based on the bottom surface of the point where the simulated firearm is located. Can be.
일 실시예에 의하면, 상기 훈련자 단말은 상기 모의 총기의 상기 기울기에 기초하여 상기 레이저의 상기 탄착점을 보정하여 실제 탄착점을 산출 할 수 있다.According to an embodiment, the trainer terminal may calculate an actual impact point by correcting the impact point of the laser based on the slope of the simulated firearm.
일 실시예에 의하면, 상기 훈련자 단말은 상기 모의 총기의 상기 기울기에 기초하여 탄환의 발사 방향을 결정하고, 탄환의 발사 방향에 기초하여 상기 탄환의 발사 속도를 요소 속도들로 분리하며, 아래의 수학식 1에 기초하여 탄착 보정값을 산출 할 수 있다.According to an embodiment, the trainer terminal determines a firing direction of the bullet based on the inclination of the simulated firearm, separates the firing speed of the bullet into element speeds based on the firing direction of the bullet, Based on
[수학식 1][Equation 1]
T = X1 / Vx1 - (1)T = X1 / Vx1-(1)
Cy = Cy0 + Vy1 * T - (2)Cy = Cy0 + Vy1 * T-(2)
Cz = Cz0 + Vz1 * T - (3)Cz = Cz0 + Vz1 * T-(3)
(단, X1은 상기 모의 총기와 타겟 간의 거리이며, Cy는 제2 축 방향으로의 제2 보정값이고, Cy0는 제2 축 방향으로의 제2 초기 오차이며, Cz는 제3 축 방향으로의 제3 보정값을 나타내고, Cz0는 제3 축 방향으로의 제3 초기 오차임).(Where X1 is the distance between the simulated firearm and the target, Cy is the second correction value in the second axis direction, Cy0 is the second initial error in the second axis direction, and Cz is in the third axis direction) The third correction value, and Cz0 is the third initial error in the third axis direction.
일 실시예에 의하면, 상기 훈련자 단말은 사격 훈련 결과를 생성하되, 상기 사격 훈련 결과는 상기 레이저의 상기 탄착점과, 상기 실제 탄착점과, 상기 모의 총기의 상기 기울기와, 격발 시점을 포함하는 제1 시간 동안 상기 레이저의 이동 경로를 포함 할 수 있다.According to an embodiment, the trainer terminal generates a shooting training result, wherein the shooting training result includes a first time including the impact point of the laser, the actual impact point, the inclination of the simulated firearm, and a triggering time point. It may include the path of movement of the laser during.
일 실시예에 의하면, 상기 영상 사격 훈련 시스템은, 상기 모의 총기와 상기 스크린 사이에 위치하고, 상기 레이저의 일부를 반사하는 보조 스크린을 더 포함 할 수 있다. 이 경우, 상기 카메라 장치는 상기 스크린 상에 형성되는 제1 레이저 이미지와 상기 보조 스크린 상에 형성되는 제2 레이저 이미지를 각각 인식하되, 상기 제1 레이저 이미지와 상기 제2 레이저 이미지는 상기 레이저 이미지에 포함될 수 있다. 또한, 상기 훈련자 단말은 상기 제1 레이저 이미지와 상기 제2 레이저 이미지에 기초하여 상기 탄착점을 산출 할 수 있다. In example embodiments, the image shooting training system may further include an auxiliary screen positioned between the simulated firearm and the screen and reflecting a portion of the laser. In this case, the camera apparatus recognizes a first laser image formed on the screen and a second laser image formed on the auxiliary screen, respectively, wherein the first laser image and the second laser image are included in the laser image. May be included. In addition, the trainer terminal may calculate the impact point based on the first laser image and the second laser image.
본 발명의 실시예들에 따르면, 영상 사격 훈련 시스템은, 반동 모듈, 스위칭 모듈 및 센서 모듈을 구비하는 모의 총기와, 사용자의 자세를 인식하는 자세 인식 장치를 포함하고, 반동 모듈을 통해 격발시 반동을 발생시키고, 스위칭 모듈 및 센서 모듈을 이용하여 가상 공간 내 캐릭터의 위치 이동 또는 화면의 전환을 수행하고, 사용자의 자세(또는, 시선)의 변화에 대응하는 영상을 표시함으로써, 보다 실제와 같은 사격 훈련 환경을 제공할 수 있다.According to embodiments of the present invention, the image shooting training system includes a simulated firearm including a recoil module, a switching module, and a sensor module, and a posture recognition device for recognizing a posture of a user, and recoil when triggered through the recoil module. By using the switching module and the sensor module to move the position of the character in the virtual space or to switch the screen, and display an image corresponding to the change in the posture (or gaze) of the user, more realistic shooting Provide a training environment.
또한, 영상 사격 훈련 시스템은, 모의 총기의 기울기에 기초하여 레이저의 탄착점을 보정함으로써, 실제와 같은 사격 훈련 결과를 제공할 수 있다.In addition, the image shooting training system can provide realistic shooting training results by correcting the impact point of the laser based on the tilt of the simulated firearm.
나아가, 영상 사격 훈련 시스템은, 사용자와 스크린 사이에 위치하는 보조 스크린을 포함하고, 스크린에 형성된 제1 레이저 이미지와 보조 스크린에 형성된 제2 레이저 이미지에 기초하여 모의 총기의 총구 방향(또는, 탄환의 탄도)를 산출함으로써, 보다 실제와 같은 사격 훈련 결과를 제공할 수 있다.Further, the image shooting training system includes an auxiliary screen positioned between the user and the screen, and based on the first laser image formed on the screen and the second laser image formed on the auxiliary screen, the muzzle direction (or, Ballistics) to provide more realistic shooting training results.
도 1은 본 발명의 실시예들에 따른 영상 사격 훈련 시스템을 나타내는 블록도이다.1 is a block diagram illustrating an image shooting training system according to embodiments of the present invention.
도 2는 도 1의 영상 사격 훈련 시스템의 일 예를 나타내는 배치도이다.FIG. 2 is a layout view illustrating an example of the image shooting training system of FIG. 1.
도 3a 내지 도 3c는 도 1의 영상 사격 훈련 시스템에 포함된 모의 총기의 일 예를 나타내는 도면들이다.3A to 3C are diagrams illustrating an example of a simulated firearm included in the image shooting training system of FIG. 1.
도 3d는 도 3a의 모의 총기에 의해 제어되는 사격 훈련 영상의 일 예를 나타내는 도면이다.FIG. 3D is a diagram illustrating an example of a shooting training image controlled by the simulated firearm of FIG. 3A.
도 4a는 도 1의 영상 사격 훈련 시스템에 포함된 카메라 장치의 일 예를 나타내는 도면이다.4A is a diagram illustrating an example of a camera apparatus included in the image shooting training system of FIG. 1.
도 4b는 도 1의 영상 사격 훈련 시스템에 포함된 동작 인식 장치의 일 예를 나타내는 도면이다.4B is a diagram illustrating an example of a motion recognition apparatus included in the image shooting training system of FIG. 1.
도 5는 도 1의 영상 사격 훈련 시스템에 포함된 훈련자 단말의 일 예를 나타내는 블록도이다.FIG. 5 is a block diagram illustrating an example of a trainer terminal included in the image shooting training system of FIG. 1.
도 6a 및 도 6b는 도 5의 훈련자 단말에서 탄착점을 보정하는 과정을 설명하는 도면들이다.6A and 6B are diagrams illustrating a process of correcting an impact point in the trainer terminal of FIG. 5.
도 7은 도 1의 영상 사격 훈련 시스템에서 출력하는 사격 훈련 결과의 일 예를 나타내는 도면이다.FIG. 7 is a diagram illustrating an example of a shooting training result output from the image shooting training system of FIG. 1.
도 8은 도 1의 영상 사격 훈련 시스템의 다른 일 예를 나타내는 도면이다.FIG. 8 is a diagram illustrating another example of the image shooting training system of FIG. 1.
도 9는 도 1의 영상 사격 훈련 시스템에서 수행되는 영상 사격 훈련 방법을 나타내는 도면이다.9 is a diagram illustrating an image shooting training method performed in the image shooting training system of FIG. 1.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. The same reference numerals are used for the same elements in the drawings, and duplicate descriptions of the same elements are omitted.
도 1은 본 발명의 실시예들에 따른 영상 사격 훈련 시스템을 나타내는 도면이다. 도 2는 도 1의 영상 사격 훈련 시스템의 일 예를 나타내는 배치도이다.1 is a diagram illustrating an image shooting training system according to embodiments of the present invention. FIG. 2 is a layout view illustrating an example of the image shooting training system of FIG. 1.
도 1 및 도 2를 참조하면, 영상 사격 훈련 시스템(100)은 통제관 단말(110), 훈련자 단말(120), 표시 장치(130), 스크린(140), 모의 총기(150) 및 카메라 장치(160)를 포함할 수 있다. 통제관 단말(110), 훈련자 단말(120), 표시 장치(130), 모의 총기(150) 및 카메라 장치(160)는 유무선 네트워크를 통해 연결될 수 있다. 여기서, 유무선 네트워크는 유선 인터넷, 무선 이동통신, WiFi, 지그비(Zigbee), 블루부트(Bluetooth) 등의 통신 방식을 이용하여 형성되는 네트워크일 수 있다.1 and 2, the image
영상 사격 훈련 시스템(100)은 통제관 단말(110)을 통해 사격 훈련 환경(예를 들어, 사격 시나리오 등)을 설정하고, 훈련자 단말(120)을 이용하여 사격 훈련 환경에 기초하여 가상 사격 훈련 공간을 생성하며, 모의 총기를 기준으로 가상 사격 훈련 공간의 적어도 일부에 대한 영상 데이터를 생성하고, 표시 장치(130)를 이용하여 영상 데이터에 대응하는 사격 훈련 영상을 스크린(140) 상에 표시하며, 모의 총기(150)에서 발사되어 스크린(140) 상에 포인팅되는 레이저 이미지를 카메라(160)를 통해 인식하며, 모의 총기(150)의 상태 정보(예를 들어, 위치 정보, 자세/기울기 정보)와 레이지 이미지에 기초하여 탄착점을 산출할 수 있다. 영상 사격 훈련 시스템(100)은 산출된 탄착점에 기초하여 탄착 영상을 생성 및 표시하고, 사격 훈련 결과를 생성/저장/표시할 수 있다.The image
통제관 단말(110)은 통제관으로부터 통제 신호를 수신하고, 통제 신호에 기초하여 사격 훈련 환경을 설정할 수 있다. 예를 들어, 통제관 단말(110)은 사격 모드(예를 들어, 영점 사격 모드, 기록 사격 모드, 대공 사격 모드, 분대 전투(시가전) 모드 등), 총기 유형(예를 들어, 소총, 권총 등), 실탄 수(예를 들어, 5발, 10발 등), 발사 모드(예를 들어, 단발 모드, 연발 모드 등) 등과 같은 사격 훈련 환경(또는 훈련 시나리오)를 작성/편집/저장할 수 있다. 예를 들어, 통제관 단말(110)은 사격 훈련이 수행되는 장소(예를 들어, 훈련장, 시가지), 계절(예를 들어, 여름, 겨울), 시간대(예를 들어, 주간, 야간), 기상 상황(예를 들어, 눈, 비, 안개 등), 타겟 수(예를 들어, 사격 모드가 시가전인 경우, 적군의 인원수) 등과 같은 사격 훈련 환경을 설정할 수 있다. 통제관 단말(110)은 설정된 사격 훈련 환경 설정 정보를 훈련자 단말(120)에 제공할 수 있다. The
통제관 단말(110)은 데이터베이스로부터 사격 훈련에 참가한 사용자(USER)의 사용자 정보를 로딩하고, 사격 훈련 종료시 생성되는 사격 훈련 결과 정보에 기초하여 사용자 정보를 갱신할 수 있다.The
통제관 단말(120)은 컴퓨터 장치, 서버 등으로 구현되고, 마우스, 키보드, 터치스크린 등과 같은 입력 유닛, 스피커, 모니터, 프린터 등과 같은 출력 유닛, 각종 프로그램이나 데이터를 처리하고 각 구성요소를 제어하는 중앙처리유닛(CPU), 프로그램이나 데이터를 저장하는 저장 유닛을 포함할 수 있다.The
훈련자 단말(120)은 통제관 단말(110)로부터 제공된 사격 훈련 환경 설정 정보에 기초하여 가상 사격 훈련장(또는, 가상 공간)을 구성할 수 있다. 예를 들어, 훈련자 단말(120)은 사격 모드에 기초하여 사격 모드 데이터를 로딩하고, 장소, 계절, 시간대, 기상 상황 등과 같은 설정 정보에 기초하여 사격 모드 데이터를 편집할 수 있다. The
훈련자 단말(120)은 사용자(USER)(또는, 모의 총기(150))를 기준으로 시선 방향에 위치하는 가상 사격 훈련장의 적어도 일부에 대한 영상 데이터를 생성할 수 있다. 여기서, 시선 방향은 사용자(USER)에 대응하여 가상 사격 훈련장 내에 위치하는 캐릭터의 시선 방향일 수 있다. 후술하여 설명하겠지만, 훈련자 단말(120)은 동작 인식 장치(170)를 통해 인식된 사용자(USER)의 자세에 대응하는 영상 데이터를 생성할 수 있다. 예를 들어, 사용자(USER)의 자세가 선 자세(standing position)인 경우, 높이 170cm 인 캐릭터를 기준으로 영상 데이터를 생성할 수 있다. 다른 예를 들어, 사용자(USER)의 자세가 앉은 자세인 경우, 높이 100cm인 캐릭터를 기준으로 영상 데이터를 생성할 수 있다. 실제 사격 환경에서 사용자(USER)의 자세에 따라 사용자(USER)에게 인식되는 전경(타겟의 위치), 탄환의 탄도(탄환의 궤도로서, 예를 들어, 탄환의 발사 지점의 높이, 경로 등) 등이 달라질 수 있다. 따라서, 훈련자 단말(120)(또는, 영상 사격 훈련 시스템(100))은 사용자(USER)의 자세에 따라 사격 훈련 영상(또는, 사격 훈련 영상에 대응하는 영상 데이터)를 변화시킴으로서, 사용자(USER)에게 보다 실제와 같은 사격 환경을 제공할 수 있다.The
훈련자 단말(120)은 후술하는 카메라 장치(160)를 통해 획득한 레이저 이미지와 모의 총기(150)로부터 획득한 모의 총기(150)의 상태 정보에 기초하여 탄도 및/또는 탄착점(예를 들어, 가상 사격 훈련장 내에서 레이저의 탄도 및/또는 탄착 지점)을 산출하고, 탄도 및/또는 탄착점에 기초하여 탄착 영상 데이터(예를 들어, 격발 영상, 피격 영상 등을 포함하는 영상 데이터)와 사격 훈련 결과 정보를 생성할 수 있다. 여기서, 모의 총기(150)의 상태 정보는 모의 총기(150)의 위치 정보(예를 들어, 3차원 공간 상에서의 좌표), 격발 신호, 자세 정보(예를 들어, 기울기 정보) 등을 포함할 수 있다. 탄착점을 산출하는 구성에 대해서는 도 6a 내지 도 6d를 참조하여 후술하기로 한다.
표시 장치(130)는 영상 데이터에 기초하여 사격 훈련 영상을 스크린(140) 상에 표시할 수 있다. 예를 들어, 표시 장치(130)는 빛을 이용하여 영상을 스크린(140)에 비추는 빔 프로젝터이고, 도 2에 도시된 바와 같이 스크린(140)의 전면(또는, 사용자(USER)와 스크린(140)) 사이에 배치될 수 있다. 이는 예시적인 것으로, 표시 장치(130)가 이에 한정되는 것은 아니며, 예를 들어, 표시 장치(130)는 CRT/LCD/LED 디스플레이 장치로 구현되어 스크린(140)과 일체로 배치되거나, 두부 장착 표시 장치(HMD)로 구현되어 사용자(USER)에게 착용 될 수 있다.The
모의 총기(150)는 레이저를 생성하여 발사하며, 방아쇠의 격발을 감지하여 격발 신호를 생성할 수 있다. 예를 들어, 모의 총기(150)는 일반 총기를 구성하는 구성 요소들(예를 들어, 방아쇠, 총신, 총대 등)을 포함하고, 이외에 레이저를 생성하는 레이저 모듈, 격발 모듈 등을 포함할 수 있다. 모의 총기(150)의 구체적인 구성에 대해서는 도 3을 참조하여 후술하기로 한다.The
카메라 장치(160)는 모의 총기(150)에서 발사된 레이저에 의해 스크린(140) 상에 형성된(또는, 포인팅된) 레이저 이미지를 촬영하고, 촬영된 레이저 이미지 또는 레이저 이미지의 좌표 정보(예를 들어, 스크린(140) 상에서의 레이저 이미지의 좌표 정보)를 훈련자 단말(120)에 제공할 수 있다. 이 경우, 훈련자 단말(120)은 레이저 이미지에 기초하여 레이저의 탄도 및/또는 탄착점의 좌표값을 산출하고, 기 설정된 타켓의 좌표값과 탄착점의 좌표값에 기초하여 사격 훈련 결과 점수를 산출하며, 타겟(또는, 탄도 상에 위치한 객체)의 이미지를 보정하여 탄착 영상이 포함된 탄착 영상 데이터를 생성할 수 있다. 표시 장치(130)는 탄착 영상 데이터에 기초하여 탄착 영상을 스크린(140) 상에 표시할 수 있다.The
실시예들에서, 영상 사격 훈련 시스템(100)은 동작 인식 장치(170)를 더 포함할 수 있다. 동작 인식 장치(170)는 모의 총기(150)를 소지한 사용자(USER)(또는, 영상 사격 훈련을 수행 중인 사용자)의 동작(예를 들어, 자세)을 인식할 수 있다. 예를 들어, 동작 인식 장치(170)는 카메라로 구현되고, 스크린(140)의 상측에 배치되어 사용자(USER)를 촬상하며, 촬상된 사용자 영상을 분석하여 사용자(USER)의 동작을 인식할 수 있다. 다른 예를 들어, 도 2에 도시된 바와 같이, 동작 인식 장치(170)는 사용자(USER)의 제1 측방(예를 들어, 스크린(140)을 바라보는 사용자(USER)를 기준으로 우측 방향)에 상호 다른 높이에 설치되어, 적외선, 초음파 등의 센싱 신호를 송신하는 송신기들과, 제2 측방(예를 들어, 사용자(USER)를 기준으로 좌측 방향)에 송신기들에 대응하여 설치되는 적외선 수신기들을 포함하고, 수신기들에서 수신되는 센싱 신호의 강도에 기초하여 사용자(USER)의 자세(예를 들어, 서기, 앉기, 엎드리기 등과 같은 자세)를 인식할 수 있다. 훈련자 단말(120)은 인식된 사용자(USER)의 자세(또는, 사용자 자세 정보)에 기초하여 사격 훈련 영상을 생성/보정하고, 탄착점을 산출할 수 있다. 동작 인식 장치(170)에 대해서는 도 4b를 참조하여 후술하기로 한다.In embodiments, the image
일 실시예에서, 영상 사격 훈련 시스템(100)은 통제 장치(180)를 더 포함할 수 있다. 통제 장치(180)는 모의 총기(150)의 동작을 제어할 수 있다. 통제장치(180)는 모의 총기(150) 등에 전원을 공급/분배하며, 모의 총기(150), 동작 인식 장치(170) 등으로부터 신호를 수신하여 통제관 단말(110)(또는, 훈련자 단말(120))에 전달할 수 있다. 예를 들어, 통제 장치(180)는 유/무선으로 모의 총기(150)에 연결되어 레이저 발생 및 반동 효과 발생을 위한 전원을 공급하며, 모의 총기(150)의 격발에 의한 격발 신호(또는, 모의 총기(150)의 발사 여부)를 훈련자 단말(120) 및 통제관 단말(110)에 전달할 수 있다.In one embodiment, the image
도 1 및 도 2를 참조하여 설명한 바와 같이, 영상 사격 훈련 시스템(100)은 통제관 단말(110)을 통해 사격 훈련 환경(또는, 훈련 시나리오)을 설정하고, 훈련자 단말(120)을 이용하여 설정된 사격 훈련 환경에 기초하여 가상 사격 훈련장을 구축하며, 모의 총기(150)를 기준으로 시선 방향에 대한 가상 사격 훈련장의 적어도 일부에 대한 영상 데이터를 생성하고, 표시 장치(130)를 이용하여 영상 데이터에 대응하는 사격 훈련 영상을 스크린(140) 상에 표시하며, 모의 총기(150)에서 발사된 레이저에 의해 스크린(140) 상에 형성되는 레이저 이미지를 카메라 장치(160)를 통해 인식하고, 인식된 레이저 이미지에 기초하여 탄도 또는 탄착점을 산출하며, 훈련 결과를 생성할 수 있다. 또한, 영상 사격 훈련 시스템(100)은 사용자(USER)의 자세를 인식하고, 사용자(USER)의 자세에 대응하는 사격 훈련 영상을 표시하며, 사용자(USER)의 자세에 기초하여 탄착점을 보정함으로써, 보다 실제와 같은 사격 훈련 환경을 사용자(USER)에게 제공할 수 있다.As described with reference to FIGS. 1 and 2, the image
이하에서는, 모의 총기(150), 카메라 장치(160), 동작 인식 장치(170), 훈련자 단말(120)에 대해서 상세히 설명하기로 한다.Hereinafter, the
도 3a 내지 도 3c는 도 1의 영상 사격 훈련 시스템에 포함된 모의 총기의 일 예를 나타내는 도면이다.3A to 3C are diagrams illustrating an example of a simulated firearm included in the image shooting training system of FIG. 1.
도 3a 내지 도 3c를 참조하면, 모의 총기(150)는 총기 본체(310), 격발 모듈(320), 레이저 모듈(330), 반동 모듈(340), 스위치 모듈(350)을 포함할 수 있다.3A to 3C, the
총기 본체(310)는 실제 총기와 실질적으로 동일하고, 예를 들어, 총신, 총대, 방아쇠, 가늠쇠, 가늠자 등을 포함할 수 있다. 총기 본체(310)는 실탄 사격이 가능한 실제 총기이거나, 이와 같은 형상, 중량 등을 가지는 모형 총기일 수 있다. 예를 들어, 도 3a에 도시된 바와 같이, 총기 본체(310)는 K-2 소총으로, 알루미늄 합금(ABS) 재질, 무게 3.26 Kg 등의 특성을 갖도록 제작될 수 있다. 예를 들어, 도 3b 및 도 3c에 도시된 바와 같이, 총기 본체(310)는 권총 또는 공용 화기(M-60) 일 수 있다.The
격발 모듈(320)은 방아쇠(trigger)의 동작(또는 후방 이동)에 따라 격발 신호를 발생시키며, 총기 본체(210)의 내부에 삽입되거나 총기 본체(310)에 탈부착 될 수 있다. 예를 들어, 도 3b 및 도 3c에 도시된 바와 같이, 격발 모듈(320)의 본체는 방아쇠의 하단부에 결합되고, 격발 모듈(320)의 연장부는 격발 모듈(320)의 본체로부터 돌출되어 방아쇠에 인접하여 배치될 수 있다. 방아쇠가 당겨짐에 따라 격발 모듈(320)의 연장부가 이동하되, 연장부가 특정 위치에 도달하는 경우 격발 모듈(320)의 스위칭 동작(예를 들어, 격발 모듈(210) 내 스위치의 턴온 동작)에 의해 격발 신호를 생성할 수 있다. 격발 신호는 반동 모듈(340), 훈련자 단말(120), 카메라 장치(160) 등에 유무선 방식(예를 들어, BLE 등)으로 직/간접적으로 제공될 수 있다.The
일 실시예에서, 격발 모듈(320)은 조정간(select lever)과 연동되어, 안전, 단발, 연발 등의 모드에서 동작할 수 있다. 예를 들어, 안전 모드에서 방아쇠가 당겨진 경우, 격발 모듈(320)은 격발 신호를 생성하지 아니할 수 있다. 예를 들어, 연발 모드에서 방아쇠가 당겨진 상태로 유지되는 경우, 격발 모듈(320)은 방아쇠가 원복되기 전까지 특정 주기를 가지고 반복적으로 격발 신호를 발생시킬 수 있다.In one embodiment, the
레이저 모듈(330)은 레이저를 생성하고, 총기 본체(310)의 총구 방향(즉, 모의 총기(150)의 총구가 지시하는 방향으로, 모의 총기(150)에서 탄환이 발사되는 방향)으로 레이저를 발사할 수 있다. 예를 들어, 레이저 모듈(330)은 일반적인 레이저 표적지시기와 실질적으로 동일하게 구현되고, 비가시 적외선(invisible infrared ray) 레이저를 생성 및 발사할 수 있다. 예를 들어, 레이저의 최대 파장은 850nm이고, 출력은 10mW이며, 집중 레이저 빔의 지름(예를 들어, 레이저 모듈(230)에서 발사되는 레이저의 지름)은 0.1mm 이하 일 수 있다.The
레이저 모듈(330)은 총기 본체(210)에 탈부착 될 수 있다. 예를 들어, 레이저 모듈(330)은 총기 본체(310)의 총신(barrel) 내에 삽입될 수 있다. 이 경우, 레이저 모듈(330)에 의해 발사되는 레이저의 방향은 실제 탄환이 발사되는 방향과 일치할 수 있다. 다른 예를 들어, 레이저 모듈(330)은 총기 본체(310)의 총신을 감싸는 형태로 구현될 수 있다. 이 경우, 레이저 모듈(330)에 의해 발사되는 레이저의 방향은 사용자(USER)의 시선축 방향과 일치할 수 있다.The
반동 모듈(340)은 모의 총기(150)에 반동을 발생시킬 수 있다. 즉, 반동 모듈(340)은 모의 총기(150)의 격발시 반동 효과를 구현할 수 있다. 예를 들어, 반동 모듈(340)은 전자식 솔레노이드 방식을 이용하여 반동 효과를 구현할 수 있다. 반동 모듈(340)은 격발 모듈(320)에서 생성된 격발 신호에 응답하여 솔레노이드(즉, 원형 코일)에 전류를 공급하며, 반동 모듈(340) 내 강자성체의 탄자가 솔레노이드에 의해 생성된 자성에 이동하면서 반동을 발생시킬 수 있다.The
반동 모듈(340)은 총기 본체(310)에 탈부착 될 수 있다. 예를 들어, 반동 모듈(240)은 탄창 형태로 구현되며, 탄창과 동일한 방식으로 총기 본체(310)에 삽입되고, 금속(예를 들어, 듀랄류민 합금, SPCC, SUM18 등) 재질을 가질 수 있다.
스위치 모듈(350)은 가상 공간(즉, 가상 사격 훈련장으로, 예를 들어, 시가전이 수행되는 가상의 사격 훈련 장소) 내에서 사용자(USER)에 대응하는 캐릭터(또는, 모의 총기(150)의 위치와 캐릭터의 시선 방향 중 적어도 하나를 제어할 수 있다. 스위치 모듈(350)은 이동 스위치(351)와 시선 전환 스위치(352)를 포함할 수 있다.The
이동 스위치(351)는 훈련자 단말(120)에서 생성되는 가상 공간 내 캐릭터를 이동시키는 이동 신호를 생성할 수 있다. 즉, 가상 공간 내 캐릭터는 이동 스위치(351)의 동작에 따라 이동할 수 있다. 예를 들어, 이동 스위치(351)는 조이스틱으로 구현되고, 총기 본체(210)의 총열 덮개의 좌측(또는 우측)에 부착될 수 있다. 이 경우, 사용자(USER)는 총열 덮개를 잡은 왼손(또는, 오른손)의 엄지 손가락을 이용하여 이동 스위치(351)를 조작할 수 있다. 일반적인 조이스틱과 유사하게, 이동 스위치(351)의 전/후/좌/우 방향으로의 이동에 따라 전/후/좌/우 방향으로의 이동 신호를 발생시킬 수 있다. 훈련자 단말(120)은 유무선 통신 방식을 통해 이동 신호를 수신하고, 이동 신호에 응답하여 가상 공간 내 캐릭터를 이동시킬 수 있다.The
시선 전환 스위치(352)는 가상 공간 내 캐릭터의 시선 방향을 제어할 수 있다. 예를 들어, 시선 전환 스위치(352)는 버튼(button) 방식으로 동작하고, 총기 본체(210)의 총열 덮개의 우측(또는, 좌측)에 부착될 수 있다. 이 경우, 사용자(USER)는 총열 덮개를 잡은 왼손(또는, 오른손)의 검지 손가락 등을 이용하여 시선 전환 스위치(352)를 조작할 수 있다. 예를 들어, 제1 스위치(352-1)는 캐릭터의 시선을 캐릭터를 기준으로 좌측으로 이동시키는 제1 시선 전환 신호를 생성하고, 제2 스위치(352-2)는 캐릭터의 시선을 캐릭터를 기준으로 정면으로 이동시키는 제2 시선 전환 신호를 생성하며, 제3 스위치(352-3)은 캐릭터의 시선을 캐릭터를 기준으로 우측으로 이동시키는 제3 시선 전환 신호를 생성할 수 있다. 훈련자 단말(120)은 유무선 통신 방식을 통해 시선 전환 신호들을 수신하고, 시선 전환 신호들에 응답하여 캐릭터의 시선에 대응하는 영상 데이터를 생성하며, 표시 장치(130)를 통해 사격 훈련 영상을 표시할 수 있다.The
스위치 모듈(350)은 시가전 모드 등과 같이 캐릭터의 이동이 필요한 훈련 시나리오에서 사용되며, 영점 사격 모드, 기록 사격 모드 등과 같이 캐릭터의 이동이 불필요한 훈련 시나리오에서는 통제관 단말(120)의 설정에 의해 스위치 모듈(350)의 동작이 제한될 수 있다.The
일 실시예에서, 스위치 모듈(350)은 이동 속도 전환 스위치(미도시)(또는, 가속 스위치)를 더 포함할 수 있다. 이동 속도 전환 스위치는 캐릭터의 이동 속도를 가속/감속시키며, 예를 들어, 캐릭터의 걷기 동작과 뛰기 동작을 전환시킬 수 있다. 예를 들어, 이동 속도 전환 스위치는 버튼 방식으로 동작하고, 총기 본체(310)의 방아쇠의 위측에 부착될 수 있다. 이 경우, 사용자(USER)는 총기 본체(310)의 손잡이를 잡는 오른손(또는 왼손)의 엄지 손가락 등을 이용하여 이동 속도 전환 스위치를 동작시킬 수 있다.In one embodiment, the
일 실시예에서, 스위치 모듈(350)은 하나의 모듈로 구성될 수 있다. 예를 들어, 이동 스위치(351)와 시선 전환 스위치(352)는 총기 본체(310)의 총렬을 덮는 형태(예를 들어, 도 2c의 총렬 덮개 위측을 감싸는 형태)로 구현되며, 스위치 본체 내에 구비된 하나의 통신 모듈을 통해 이동 신호와 시선 전환 신호들을 훈련자 단말(120)에 제공할 수 있다.In one embodiment, the
실시예들에서, 모의 총기(150)는 모의 총기(150)의 기울기를 측정하는 센서 모듈을 더 포함할 수 있다. 예를 들어, 센서 모듈은 다축 센서(예를 들어, 9축 센서)를 포함하고, 다축 센서를 이용하여 총기 상태(또는, 사용자의 자세)를 파악할 수 있다. 예를 들어, 다축 센서는 스위치 모듈(350)과 일체로 구현되어, 총기 본체(310)의 총렬과 평행하게 총렬의 상부에 배치되고, 가속도계, 각속도계, 지자기계 등을 이용하여 총구의 방향과, 총기 본체(310)의 기울임(예를 들어, 전/후 방향(또는, 상/하 방향) 뿐만 아니라, 좌/우 방향으로의 기울임)을 측정할 수 있다. 센서 모듈을 통해 측정된 총구의 방향, 총기 본체의 기울임은 사용자의 시선 전환(예를 들어, 총기 방향이 특정 거리 또는 특정 각도 이상 좌측으로 이동하는 경우, 캐릭터의 시선을 좌측으로 이동), 후술하는 탄착점의 산출 및 보정 등에 이용될 수 있다.In embodiments, the
한편, 센서 모듈은 스위치 모듈(350)에 구비되는 것으로 설명하였으나, 센서 모듈이 이에 국한되는 것은 아니다. 예를 들어, 센서 모듈은, 도 3b 및 도 3c에 도시된 레이저 모듈(330)에 포함될 수 있다.Meanwhile, the sensor module has been described as being provided in the
도 3a 내지 도 3c를 참조하여 설명한 바와 같이, 모의 총기(150)는 레이저 모듈(330)을 통해 레이저를 발사하고, 격발 모듈(320)을 통해 발생되는 격발 신호에 기초하여 반동을 발생시킬 수 있다. 또한, 격발 모듈(210), 레이저 모듈(330) 등은 총기 본체(210)에 탈부착 가능한 형태로 구현되어, 실제 총기를 이용한 사격 훈련을 가능하게 할 수 있다. 나아가, 모의 총기(150)는 스위치 모듈(250), 센서 모듈을 포함하여 가상 공간 내에서 캐릭터의 동작(이동, 시선 전환 등)을 제어할 수 있다.As described above with reference to FIGS. 3A to 3C, the
도 3d는 도 3a의 모의 총기에 의해 제어되는 사격 훈련 영상의 일 예를 나타내는 도면이다.FIG. 3D is a diagram illustrating an example of a shooting training image controlled by the simulated firearm of FIG. 3A.
도 3d를 참조하면, 영상 사격 훈련 시스템(100)은 모의 총기(100)에서 발사된 레이저 및 모의 총기(100)의 이동 정보 중 적어도 하나에 기초하여 스크린(140) 상에 표시되는 사격 훈련 영상을 제어할 수 있다.Referring to FIG. 3D, the image
스크린(140)은 제1 영역(A1)을 포함할 수 있다. 제1 영역(A1) 내에서 레이저 이미지가 위치하거나 제1 영역(A1) 내에서 레이저 이미지가 이동하는 경우, 영상 사격 훈련 시스템(100)은 레이저 이미지의 위치/이동과 무관하게 사격 훈련 영상을 변화시키지 않을 수 있다.The
레이저 이미지가 제1 영역(A1)을 벗어나는 경우, 예를 들어, 도 3d에 도시된 바와 같이 레이저 이미지가 스크린(140)의 중심에서 제1 지점(P1)으로 이동한 경우, 영상 사격 훈련 시스템(100)은 제1 지점(P1)을 기준으로 사격 훈련 영상을 표시할 수 있다. 즉, 사격 훈련 영상이 좌측으로 슬라이딩 될 수 있다. 슬라이딩 속도는 레이저 이미지가 제1 영역(A1)을 벗어난 거리(예를 들어, 제1 거리(L1)), 레이저 이미지의 이동에 대응하여 모의 총기(150)의 회전 속도 등에 기초하여 결정될 수 있다.When the laser image is out of the first area A1, for example, when the laser image is moved from the center of the
즉, 영상 사격 훈련 시스템(100)은 모의 총기(150)에 포함된 스위치 모듈(350) 뿐만 아니라, 모의 총기(150)에서 발사된 레이저에 의해 형성된 레이저 이미지, 모의 총기(150)의 이동 속도 등에 기초하여 사격 훈련 영상을 제어할 수 있다. 따라서, 사용자(USER)는 스위치 모듈(350) 뿐만 아니라 다양한 직관적인 방식을 통해 사격 훈련 영상을 제어할 수 있다.That is, the image
도 4a는 도 1의 영상 사격 훈련 시스템에 포함된 카메라 장치의 일 예를 나타내는 도면이고, 도 4b는 도 1의 영상 사격 훈련 시스템에 포함된 동작 인식 장치의 일 예를 나타내는 도면이다.4A is a diagram illustrating an example of a camera apparatus included in the image shooting training system of FIG. 1, and FIG. 4B is a diagram illustrating an example of a motion recognition apparatus included in the image shooting training system of FIG. 1.
도 4a를 참조하면, 카메라 장치(160)는 스크린(140) 상에 표시되는 테스트 영상(예를 들어, 격자 형태의 무늬를 포함하는 영상)에 기초하여 좌표계를 설정(및 보정)하고, 좌표계에 기초하여 모의 총기(150)로부터 발사된 레이저에 의해 스크린(140) 상에 형성된 레이저 이미지의 좌표값을 산출 할 수 있다.Referring to FIG. 4A, the
도 4b를 참조하면, 동작 인식 장치(170)는 사용자(USER)를 기준으로 특정 방향(예를 들어, 사용자(USER)를 기준으로 좌/우측 방향)에 상호 다른 높이에 위치하는 복수의 센서들을 포함할 수 있다. 예를 들어, 동작 인식 장치(170)는 사용자(USER)(또는, 모의 총기(150))가 위치한 바닥면으로부터 제1 높이(H1)(예를 들어, 높이 20cm)에 위치한 제1 센서(411), 바닥면으로부터 제2 높이(H2)(예를 들어, 높이 80cm)에 위치한 제2 센서(421), 바닥면으로부터 제3 높이(H3)(예를 들어, 높이 150cm)에 위치한 제3 센서(431)를 포함할 수 있다. 여기서, 제1 내지 제3 센서들(411, 421, 431)은 바닥면에서 수직하는 제3 방향(Z3)의 동일한 축 상에 위치하고, 제1 내지 제3 센서들(411, 421, 431)은 사용자(USER)를 향하여(예를 들어, 제2 방향(D2)으로) 바닥면에 평행한 방향으로 특정 각도를 가지고 센싱 신호(예를 들어, 초음파, 적외선 등)를 송신할 수 있다. 유사하게, 동작 인식 장치(170)는 사용자(USER) 제1 높이(H1)에 위치한 제1 수신 센서(412), 제2 높이(H2)에 위치한 제2 수신 센서(422), 제3 높이(H3)에 위치한 제3 수신 센서(432)를 더 포함하고, 제1 내지 제3 센서들(411, 421, 431)로부터 송신된 센싱 신호들을 각각 수신할 수 있다.Referring to FIG. 4B, the
예를 들어, 제1 내지 제3 센서들(411, 421, 431)은 40Hz의 동작 주파수를 가지고, 0.02 내지 4 m 거리 범위에서 15도 각도 범위 이내에 위치하는 객체(또는, 사용자(USER))를 0.3cm의 정확도를 가지고 인식할 수 있다.For example, the first to
사용자(USER)가 선 자세(standing position)을 취하는 경우, 제1 내지 제3 센서들(411, 421, 431)은 사용자(USER)에 의해 반사된(또는, 투과된, 차단된) 특정 크기의 센싱 신호(예를 들어, 초음파 신호)를 수신하고, 이에 기초하여 동작 인식 장치(170)는 사용자(USER)의 선 자세를 인식할 수 있다. 유사하게, 사용자(USER)가 엎드린 자세을 취하는 경우, 제1 센서(411)만이 사용자(USER)로부터 반사된 특정 크기의 초음파 신호를 수신하고, 이에 기초하여 동작 인식 장치(170)는 사용자(USER)의 엎드린 자세를 인식할 수 있다.When the user USER takes a standing position, the first to
영상 사격 훈련 시스템(100)은 동작 인식 장치(170)를 통해 사용자(USER)의 자세를 인식하고, 사용자(USER)의 자세에 대응하는 사격 훈련 영상을 생성/표시하며, 사용자(USER)에 대한 사격 통제를 수행할 수 있다. 예를 들어, 엎드려쏴(伏射)와 같은 기록 사격 모드에서 사용자(USER)가 앉은 자세 또는 선 자세를 취하는 경우, 영상 사격 훈련 시스템(100)은 사용자(USER)의 자세에 기초하여 모의 총기(150)의 격발을 제한시킬 수 있다. 또한, 영상 사격 훈련 시스템(100)은 사용자(USER)의 자세에 기초하여 후술하는 탄착점을 보정할 수 있다.The image
도 5는 도 1의 영상 사격 훈련 시스템에 포함된 훈련자 단말의 일 예를 나타내는 블록도이다.FIG. 5 is a block diagram illustrating an example of a trainer terminal included in the image shooting training system of FIG. 1.
도 4를 참조하면, 훈련자 단말(120)은 제1 처리 장치(510) 및 제2 처리 장치(520)를 포함할 수 있다.Referring to FIG. 4, the
제1 처리 장치(510)는 통제관 단말(110)로부터 제공되는 사격 훈련 환경 정보에 기초하여 가상 사격 훈련장을 구성하고, 사용자(USER)(또는, 가상 사격 훈련장 내 캐릭터)를 기준으로 가상 사격 훈련장의 적어도 일부에 대한 영상 데이터를 생성하며, 모의 총기(150)로부터 발사된 레이저의 탄착점에 기초하여 탄착 영상 데이터를 생성할 수 있다. 제1 처리 장치(510)는 시나리오 편집부(511), 영상 처리부(512) 및 탄착 처리부(513)를 포함할 수 있다.The
시나리오 편집부(511)는 사격 훈련 환경 정보에 기초하여 특정 시나리오를 편집할 수 있다. 예를 들어, 시나리오 편집부(511)는 사격 모드, 실탄 수, 총기 종류, 발사 모드, 사로 정보 등에 기초하여 데이터베이스(530)에 포함된 시나리오 DB로부터 해당 시나리오를 로딩/편집할 수 있다.The
영상 처리부(513)는 영상 데이터베이스로부터 시나리오에 대응하는 가상 사격 훈련장 데이터를 로딩하고, 데이터베이스(530)에 포함된 3D 모델 데이터베이스로부터 총기 모델 등을 로딩하여 가상 사격 훈련장을 구성하고, 사용자(USER)(또는, 캐릭터)를 기준으로 영상 데이터를 생성할 수 있다. 영상 처리부(510)는 3D 엔진(예를 들어, 3D 영상을 생성하는 영상 프로그램)으로 구현될 수 있다.The
일 실시예에서, 영상 처리부(513)는 동작 인식 센서(170)를 통해 인식된 사용자의 자세(예를 들어, 선 자세 등)에 기초하여 캐릭터의 시점(예를 들어, 시선의 높이)를 결정하고, 해당 시점에 대응하는 영상 데이터를 생성할 수 있다.In one embodiment, the
탄착 보정부(512)는 스크린(140) 상에 포인팅된 레이저 이미지에 기초하여 레이저의 탄착점을 보정하여 실제 탄착점을 산출할 수 있다. 예를 들어, 탄착 보정부(512)는 중력, 공기 저항 등을 고려하여 설정된 탄도 방정식을 이용하여 레이저의 탄착점을 보정하여 실제 탄착점을 산출할 수 있다. 실제 탄착점을 산출하는 구성에 대해서는 도 6a 및 도 6b를 참조하여 후술하기로 한다.The
한편, 제1 처리 장치(510)는 훈련 분석부를 더 포함할 수 있다. 훈련 분석부는 실제 탄착점에 기초하여 사격 훈련 결과를 생성할 있다. 예를 들어, 훈련 분석부는 실제 탄착점의 위치 정보(예를 들어, 좌표 정보)와 타겟의 좌표 정보에 기초하여 명중 여부를 판단하거나 사격 점수를 산출할 수 있다. 또한, 훈련 분석부는 레이저의 탄착점과, 실제 탄착점과, 모의 총기(150)의 자세 정보(예를 들어, 기울기 정보)를 포함하는 사격 훈련 결과를 생성하고, 표시 장치(130)를 통해 사용자(USER)에게 사격 훈련 결과를 제공할 수 있다. 사격 훈련 결과는 도 7을 참조하여 후술하기로 한다.Meanwhile, the
일 실시예에서, 훈련 분석부는 격발 시점을 포함하는 제1 시간(time period) 동안 레이저의 이동 경로를 추적하고, 사격 훈련 결과와 함께 레이저의 이동 경로를 출력할 수 있다. 예를 들어, 제1 시점(예를 들어, 0초)에 통제관 단말(120)로부터 사격 개시 신호가 송신되고, 제2 시점(예를 들어, 10초)에 통제관 단말(120)로부터 사격 중지 신호가 송신된 경우, 제1 시점과 제2 시점 사이의 제1 구간 동안 카메라 장치(160)는 스크린(140) 상에 포인팅된 레이저 이미지를 주기적(예를 들어, 1/60초 간격)으로 센싱할 수 있다. 이 경우, 훈련 분석부는 센싱된 레이저 이미지들과 센싱된 시점에 기초하여 레이저의 이동 경로 데이터를 생성할 수 있다. 레이저의 이동 경로 데이터는 영상 처리부(512)와 표시 장치(130)를 통해 시각적으로 출력될 수 있고, 사용자(USER)는 격발 전, 격발 시점 등에서 레이저의 이동(즉, 사격 자세의 흔들림)을 인식할 수 있다.In one embodiment, the training analyzer may track the movement path of the laser during the first time period including the triggering time point, and output the movement path of the laser together with the shooting training result. For example, a fire start signal is transmitted from the
제2 처리 장치(520)는 표시 장치(130), 모의 총기(150) 및 카메라 장치(160)를 제어할 수 있다. 제2 처리 장치(520)는 카메라 제어부(521), 통신부(522), 이미지 보정부(523), 이미지 캡처부(524) 및 제어부(525)를 포함할 수 있다.The
카메라 제어부(521)는 카메라 장치(160)의 동작을 제어하고, 카메라 장치(160)로부터 제공된 레이저 이미지를 처리할 수 있다. 예를 들어, 카메라 제어부(521)는 모의 총기(150)에서 생성된 격발 신호에 기초하여 카메라 장치(160)로 하여금 레이저 이미지를 촬상(또는, 센싱)하도록 제어하고, 촬상된 레이저 이미지로부터 레이저 이미지의 좌표를 산출할 수 있다. 예를 들어, 도 4a를 참조하여 설명한 바와 같이, 카메라 제어부(521)는 스크린(140) 상에 표시되는 테스트 영상과 카메라 장치(160)를 통해 센싱된 영상에 기초하여 변환 좌표계(예를 들어, 스크린(140) 상의 좌표를 가상 공간 상의 좌표로 변환하기 위한 좌표계를 설정(및 보정)하고, 변환 좌표계에 기초하여 레이저 이미지의 좌표값을 산출 할 수 있다.The
통신부(522)는 통제관 단말(110), 제1 처리 장치(510) 등과 데이터 통신을 수행할 수 있다. 예를 들어, 통제관 단말(110)로부터 사격 통제 신호(예를 들어, 사격 개시 신호, 사격 중지 신호 등)을 수신하고, 레이저 이미지의 좌표값을 제1 처리 장치(510)에 제공할 수 있다.The
이미지 보정부(523)는 스크린(140) 상에 출력되는 사격 훈련 영상의 왜곡 여부를 판단하고, 제1 처리 장치(510)로 하여금 사격 훈련 영상을 보정하도록 할 수 있다.The
이미지 캡처부(524)는 특정 신호(예를 들어, 격발 신호)에 기초하여 사격 훈련 영상을 캡처 하고, 제어부(525)는 카메라 제어부(521), 통신부(522), 이미지 보정부(523) 및 이미지 캡처부(524)의 동작을 제어할 수 있다.The
한편, 데이터베이스(530)는 사용자 데이터베이스, 사격 데이터베이스, 예약 데이터베이스 등을 포함할 수 있다. 사용자 데이터베이스는 사격 훈련에 참가하는 사용자(USER)의 사용자 정보(예를 들어, 군번, 이름 등)를 저장할 수 있다. 여기서, 사용자(USER)는 정규군, 예비군 등일 수 있다. 사격 데이터베이스는 제1 처리 장치(510)로부터 통제관 단말(110)을 통해 제공되는 사격 훈련 결과를 저장할 수 있다. 사격 훈련 결과는 사용자 정보에 대응하여 저장되거나, 사격 일정 등에 대응하여 저장될 수 있다. 예약 DB는 사격 훈련 일정, 참가 인원, 참가 대상자 등의 정보를 저장할 수 있다.The
도 5를 참조하여 설명한 바와 같이, 훈련자 단말(120)은 통제관 단말(110)로부터 제공된 사격 훈련 환경 설정 정보에 기초하여 가상 사격 훈련장(또는, 가상 공간)을 구성하고, 사용자(USER)(또는, 캐릭터)를 기준으로 시선 방향에 위치하는 가상 사격 훈련장의 적어도 일부에 대한 영상 데이터를 생성하며, 카메라 장치(160)를 통해 획득한 레이저 이미지에 기초하여 탄착점을 산출할 수 있다.As described with reference to FIG. 5, the
한편, 제1 처리 장치(510) 및 제2 처리 장치(520)는 훈련자 단말(120)을 영상 처리 기능과 제어 기능을 중심으로 예시적으로 구분한 것으로, 제1 처리 장치(510) 및 제2 처리 장치(520)가 이에 국한되는 것은 아니다. 예를 들어, 제2 처리 장치(520)는 탄착 보정부(513)를 포함할 수 있다.On the other hand, the
도 6a 및 도 6b는 도 5의 훈련자 단말에서 탄착점을 보정하는 과정을 설명하는 도면들이다.6A and 6B are diagrams illustrating a process of correcting an impact point in the trainer terminal of FIG. 5.
도 6a를 참조하면, 제1 축(X)는 모의 총기(150)로부터 스크린(140)까지의 제1 방향(또는, 가상 공간 내 캐릭터의 시선 방향)을 나타내고, 제2 축(Y)은 제1 축(X)에 수직하는 수평 방향을 나타내며, 제3 축(Z)은 제1 축(X)과 제2 축(Y)에 수직하는 수직 방향을 나타낸다. Referring to FIG. 6A, the first axis X represents the first direction (or the direction of the character's gaze in the virtual space) from the
기준 지점(B0)는 조준선 또는 사용자(USER)의 시선축의 시작 지점이며, 모의 총기(150)의 조준경과 가늠쇠를 통과하는 선과 교차할 수 있다. 발사 지점(S0)는 탄환이 발사되는 시작 지점을 나타내고, 총구의 연장선과 시선축간의 이격 거리(또는, 이들간의 최단 거리)에 기초하여 결정될 수 있다. 예를 들어, 레이저 모듈(330)이 총구에 삽입되는 경우, 시선축과 총구의 연장선은 일치하고, 발사 지점(S0)은 기준 지점(B0)과 일치할 수 있다. 다른 예를 들어, 레이저 모듈(230)이 총구를 감싸는 형태로 설치되는 경우, 발사 지점(S0)은 기준 지점(B0)을 기준으로 특정값(z0)만큼 이격되어 위치할 수 있다.The reference point B0 is a starting point of the line of sight of the line of sight or the user USER, and may intersect a line passing through the scope of sight and the scope of the
제1 곡선(G1)은 모의 총기(150)에서 발사되는 레이저의 탄도를 나타내며, 모의 총기(150)의 조준선(또는, 사용자(USER)의 시선축)과 일치할 수 있다. 제1 곡선(G1)은 실질적으로 제1 축(X)에 평행할 수 있다. 제1 탄착점(P1)은 표적에 대한 레이저의 탄착점(또는 조준점)으로, 실제 탄착점(즉, 실제 탄환이 탄착되는 지점)을 산출하는데 기준이 될 수 있다.The first curve G1 represents the trajectory of the laser emitted from the
한편, 제2 곡선(G2)은 사용자(USER)의 자세를 고려하지 않은 경우(즉, 모의 총기(150)가 기울어지지 않고, 시선축에 평행한 것으로 가정한 경우) 모의 총기(150)에서 발사된 탄환의 탄도를 나타낼 수 있다. 즉, 모의 총기(150)에서 탄환이 발사되는 것으로 가정하는 경우, 탄환의 이동 궤적을 나타내며, 제2 곡선(G2)은 중력, 공기 저항 등(특히, 중력)에 의해 포물선 형태로 나타낼 수 있다.On the other hand, the second curve G2 is fired from the
제3 곡선(G3)은 사용자(USER)의 자세를 고려한 경우(즉, 모의 총기(150)의 자세 또는 기울기를 고려한 경우) 모의 총기(150)에서 발사된 탄환의 탄도를 나타낼 수 있다. 제3 곡선(G3)은 제2 곡선(G2)과 유사하게 포물선 형태로 나타나나, 사용자(USER)의 자세에 의해 발사 지점(S0)이 달라지므로, 제3 곡선(G3)의 경로는 제2 곡선(G2)과 달라질 수 있다.The third curve G3 may represent the trajectory of bullets emitted from the
실시예들에서, 훈련자 단말(120)은 모의 총기(150)의 기울기(또는, 기울기 정보)에 기초하여 레이저의 탄착점을 보정하여 실제 탄착점을 산출할 수 있다.In embodiments, the
먼저, 훈련자 단말(120)은 스크린(140) 상에 포인팅된 레이저 이미지에 기초하여 레이저의 탄착점인 제1 탄착점(P1)을 산출할 수 있다. 예를 들어, 카메라 장치(160)는 스크린(140) 상에 포인팅된 레이저 이미지의 제1 좌표를 인식하고, 훈련자 단말(120)은 레이저 이미지의 제1 좌표에 기초하여 가상 공간 내 제2 지점을 결정하며, 모의 총기(150)가 위치한 제1 지점과 제2 지점을 연결하는 제1 탄도(즉, 제1 곡선(G1)에 대응하는 직선)를 산출하며, 제1 탄도 상에 위치하는 객체와 제1 탄도가 만나는 지점(즉, 탄착점)을 산출할 수 있다. 다른 예를 들어, 훈련자 단말(120)은 레이저 이미지의 제1 좌표에 기초하여 가상 공간 내 제2 지점을 결정하며, 모의 총기(150)의 기울기 정보에 기초하여 제2 지점을 통과하는 제1 탄도를 산출하며, 제1 탄도 상에 위치하는 객체와 제1 탄도가 만나는 지점(즉, 탄착점)을 산출할 수 있다.First, the
이후, 훈련자 단말(120)은 모의 총기(150)의 기울기와 초기 탈출각에 기초하여 탄환의 발사 방향을 결정하고, 탄환의 발사 방향에 기초하여 탄환의 발사 속도를 요소 속도들로 분리할 수 있다. 여기서, 초기 탈출각은 실제 탄환의 탄도가 총기로부터 50m 이격된 거리에서 조준선(또는, 시선축)과 일치되도록, 탄환의 발사 방향이 시선 방향(예를 들어, 레이저 발사 방향)과 형성하는 예각일 수 있다. 초기 탈출각과 발사 속도는 총기의 종류(예를 들어, 소총, 권총, 공용 화기 등)별로 기 설정될 수 있다. 요소 속도들은 제1 내지 제3 축들에 평행하는 벡터 성분일 수 있다.Thereafter, the
예를 들어, 훈련자 단말(120)은 탄환의 발사 방향을 도 6a에 도시된 좌표계 상에서 제1 내지 제3 축들(X, Y, Z)에 대한 요소 각들(element angles)(Θ1, Θ2)로 구분하고, 요소 각들에 기초하여 탄환의 발사 속도(V1)를 제1 속도(Vx1), 제2 속도(Vx2) 및 제3 속도(Vx3)로 분리할 수 있다.For example, the
이후, 훈련자 단말(120)은 탄도 방정식을 이용하여 탄착 보정값을 산출할 수 있다. 예를 들어, 훈련자 단말(120)은 아래의 수학식 1과 같이 제1 속도(Vx1)에 기초하여 탄환의 이동 시간(T1)을 산출하며, 탄환의 이동 시간(T1)에 기초하여 탄착 보정값(Cy, Cz)을 산출할 수 있다.Thereafter, the
[수학식 1][Equation 1]
T = X1 / Vx1 - (1)T = X1 / Vx1-(1)
Cy = Cy0 + Vy1 * T - (2)Cy = Cy0 + Vy1 * T-(2)
Cz = Cz0 + Vz1 * T - (3)Cz = Cz0 + Vz1 * T-(3)
여기서, X1은 가상 공간 내에서 모의 총기(150)(또는, 캐릭터)와 타겟 간의 거리이며, Cy는 제2 축(Y) 방향으로의 제2 보정값을 나타내고, Cy0는 제2 축(Y) 방향으로의 제2 초기 오차이며, Cz는 제3 축(Z) 방향으로의 제3 보정값을 나타내고, Cz0는 제3 축(Z) 방향으로의 제3 초기 오차일 수 있다. 제2 초기 오차(Cy0)는 발사 지점(S0)의 제2 축(Y) 방향으로의 제2 성분(Y0)이며, 제3 초기 오차(Cz0)는 기준 출발 지점(S0)의 제3 축(Z) 방향으로의 제3 성분(Z0)일 수 있다.Here, X1 is the distance between the simulated firearms 150 (or the character) and the target in the virtual space, Cy represents a second correction value in the direction of the second axis Y, and Cy0 represents the second axis Y. The second initial error in the direction, Cz may indicate a third correction value in the third axis Z direction, and Cz0 may be a third initial error in the third axis Z direction. The second initial error Cy0 is the second component Y0 in the direction of the second axis Y of the firing point S0, and the third initial error Cz0 is the third axis of the reference starting point S0 ( It may be a third component Z0 in the Z) direction.
이후, 훈련자 단말(120)은 탄착 보정값(Cy, Cz)에 기초하여 제1 탄착점(P1)(즉, 레이저의 탄착점)을 보정하여 제2 탄착점(P2)(즉, 실제 탄착점)을 산출할 수 있다. 예를 들어, 제2 탄착점(P2)은 (X1, Y1-Cy, Z1-Cz)로 표현될 수 있다.Thereafter, the
산출된 제1 탄착점(P1)과 제2 탄착점(P2)은 모의 총기(150)의 기울기 정보와 함께 사격 결과 정보에 포함되고, 사격 결과 정보는 통제관 단말(110), 훈련자 단말(120) 등을 통해 사용자(USER)에게 제공될 수 있다.The calculated first impact point P1 and the second impact point P2 are included in the shooting result information together with the inclination information of the
즉, 영상 사격 훈련 시스템(100)은 실제 탄환의 탄도(또는, 탄도 방정식)을 이용하여 레이저의 탄착점(즉, 제1 탄착점(P1))을 보정하여 실제 탄착점(즉, 제2 탄착점(P2))을 산출/표시 할 수 있다. 따라서, 영상 사격 훈련 시스템(100)은 사용자(USER)로 하여금 사격 자세의 정확도를 시각적으로 인식하도록 하여 사격 자세의 교정을 유도함으로써, 사용자(USER)의 사격 실력을 향상시킬 수 있다.That is, the image
일 실시예에서, 훈련자 단말(120)은 탄환의 발사 방향을 구성하는 요소 각에 대한 탄착 보정값을 포함하는 룩업 테이블을 이용하여 레이저의 탄착점을 보정하여 실제 탄착점을 산출할 수 있다.In one embodiment, the
도 6b를 참조하면, 제1 룩업 테이블(621)은 도 6a에 도시된 제1 요소각(Θ1)에 대한 제2 보정값(Cy)을 포함할 수 있다. 예를 들어, 요소각(Θ1)이 제1 각 구간(A1)(예를 들어, 0 내지 1도) 사이에 위치하는 경우, 제1 거리 구간(L1)(예를 들어, 0 내지 10m)에서 제2 보정값(Cy)는 C11 (예를 들어, 1cm) 일 수 있다. 예를 들어, 요소각(Θ1)이 제2 각 구간(A2)(예를 들어, 1도 내지 2도) 사이에 위치하는 경우, 제2 거리 구간(L2)(예를 들어, 10 내지 20m)에서 제2 보정값(Cy)는 C22(예를 들어, 2cm) 일 수 있다. 제2 보정값(Cy)은 총기의 종류에 따라 달리 설정될 수 있다.Referring to FIG. 6B, the first lookup table 621 may include a second correction value Cy for the first element angle Θ1 illustrated in FIG. 6A. For example, when the element angle Θ1 is located between the first angular section A1 (for example, 0 to 1 degree), in the first distance section L1 (for example, 0 to 10m) The second correction value Cy may be C11 (eg, 1 cm). For example, when the element angle Θ1 is located between the second angular sections A2 (eg, 1 degree to 2 degrees), the second distance section L2 (eg, 10 to 20 m) The second correction value Cy may be C22 (for example, 2 cm). The second correction value Cy may be set differently according to the type of firearm.
제2 룩업 테이블(622)은 도 6a에 도시된 제2 요소각(Θ2)에 대한 제3 보정값(Cz)을 포함할 수 있다. 제2 룩업 테이블(622)은 제1 룩업 테이블(621)과 실질적으로 동일하거나 또는 유사하므로, 중복되는 설명은 반복하지 않기로 한다.The second lookup table 622 may include a third correction value Cz for the second element angle Θ2 illustrated in FIG. 6A. Since the second lookup table 622 is substantially the same as or similar to the first lookup table 621, the overlapping description will not be repeated.
이 경우, 훈련자 단말(120)은 보다 빠르게 레이저의 탄착점(즉, 제1 탄착점(P1))을 보정하여 실제 탄착점(즉, 제2 탄착점(P2))을 산출할 수 있다.In this case, the
도 6a 및 도 6b를 참조하여 설명한 바와 같이, 훈련자 단말(120)(또는, 영상 사격 훈련 시스템(100))은 모의 총기(150)의 기울기에 기초하여 레이저의 탄착점을 보정하여 실제 탄착점을 산출할 수 있다. 또한, 훈련자 단말(120)은 레이지의 탄착점과 실제 탄착점과 사용자의 자세 정보(또는, 모의 총기(150)의 기울기 정보)를 포함하는 사격 훈련 결과를 사용자(USER)에게 제공함으로써, 사용자(USER)의 사격 자세의 교정을 유도하고, 보다 정확한 사격이 가능하도록 할 수 있다.As described with reference to FIGS. 6A and 6B, the trainer terminal 120 (or the image shooting training system 100) may calculate the actual impact point by correcting the impact point of the laser based on the slope of the
참고로, 일반적인 탄도 방정식은 사용자의 자세가 정확한 것을 전제하고(예를 들어, 모의 총기(150)가 바닥면에서 수직하게 위치하는 것을 전제하고), 중력과 공기 저항 등에 의한 영향력을 고려하여 탄도(예를 들어, 포물선 형태의 탄도)를 도출한다. 그러나, 실제 사격시 사용자의 자세에 따라 총기는 바닥면과 수직하지 않을 수 있고, 실제 탄환은 조준 방향을 기준으로 상대적으로 좌/우측으로 발사될 수 있다. 따라서, 영상 사격 훈련 시스템(100)은 사용자의 자세에 기인한 탄착점 보정을 수행함으로써, 보다 실제와 같은 사격 훈련 결과를 제공할 수 있다.For reference, the general ballistic equation assumes that the user's posture is correct (for example, the
도 7은 도 1의 영상 사격 훈련 시스템에서 출력하는 사격 훈련 결과의 일 예를 나타내는 도면이다.FIG. 7 is a diagram illustrating an example of a shooting training result output from the image shooting training system of FIG. 1.
도 7을 참조하면, 제1 지점(P1)은 격발 신호가 발생한 시점에서 센싱된 레이저의 탄착점을 나타내고, 제2 지점(P2)은 레이저의 탄착점을 보정하여 생성된 실제 탄착점을 나타낼 수 있다. 기울기 벡터(G)는 모의 총기(150)의 기울기를 나타내며, 원의 중심을 기준으로 기울기 벡터(G)의 방향은 모의 총기(150)의 기울어진 방향을 나타내며, 기울기 벡터(G)의 크기는 모의 총기(150)의 기울어진 정도(크기)를 나타낼 수 있다. 따라서, 사용자(USER)는 레이저의 탄착점인 제1 지점(P1)에 비해 좌측에 위치하는 제2 지점(P2)과 기울기 벡터(G)에 기초하여 사격 자세의 문제점(예를 들어, 모의 총기(150)를 좌측으로 기울이는 문제점)을 인지할 수 있다.Referring to FIG. 7, the first point P1 may represent the impact point of the laser sensed at the time when the trigger signal is generated, and the second point P2 may represent the actual impact point generated by correcting the impact point of the laser. The inclination vector G represents the inclination of the
경로(R)는 사격 개시 신호가 발생한 시점부터 사격 종료 신호가 발생한 시점까지의 시간 동안 레이저 탄착점의 이동 경로를 나타낼 수 있다. 예를 들어, 경로(R)는 사격 개시 시점부터 타겟으로 중심 방향을 향해 이동하다가 격발 시점에 타겟의 상단 방향으로 이동할 수 있다. 이에 기초하여, 사용자(USER)는 격발 시점에 모의 총기(150)의 총구가 들리는 문제점을 인지할 수 있다.The path R may represent a movement path of the laser impact point for a time from when the shooting start signal is generated to when the shooting end signal is generated. For example, the path R may move toward the center from the starting point of shooting to the target and then move toward the upper direction of the target at the time of triggering. Based on this, the user USER may recognize a problem in which the muzzle of the
도 8은 도 1의 영상 사격 훈련 시스템의 다른 일 예를 나타내는 도면이다.FIG. 8 is a diagram illustrating another example of the image shooting training system of FIG. 1.
도 1 및 도 8을 참조하면, 영상 사격 훈련 시스템(100)은 스크린(140) 이외에 보조 스크린(141)을 더 포함할 수 있다.1 and 8, the image
스크린(140)은 모의 총기(150)(또는, 사용자(USER))를 기준으로 제1 방향(D1)으로 제1 거리(L1)만큼 이격되어 위치하고, 보조 스크린(141)은 모의 총기(150)를 기준으로 제2 거리(L2)만큼 이격되어 위치할 수 있다. 여기서, 제2 거리(L2)는 제1 거리(L1)보다 짧을 수 있다.The
스크린(140)은 광(가시광선, 적외선)을 반사하는 재질로 구성되어, 표시 장치(130)로부터 제공되는 영상을 표시할 수 있다. 보조 스크린(141)은 적외선 필터(예를 들어, 적외선만 반사하는 필터)로 구현되어, 가시 광선을 투과시키고, 모의 총기(150)로부터 발사된 레이저의 일부를 반사시킬 수 있다.The
모의 총기(150)로부터 레이저가 발사되는 경우, 레이저의 일부가 보조 스크린(141) 상에 반사(또는, 포인팅)되어 제2 레이저 이미지(LI2)를 형성하고, 레이저의 나머지는 스크린(140) 상에 포인팅되어 제1 레이저 이미지(LI1)를 형성할 수 있다.When the laser is fired from the
이 경우, 카메라 장치(160)는 제1 및 제2 레이저 이미지들(LI1, LI2)를 각각 인지하고, 훈련자 단말(120)은 제1 및 제2 레이저 이미지들(LI1, LI2)에 기초하여 레이저의 탄도를 산출할 수 있다.In this case, the
예를 들어, 카메라 장치(160)는 모의 총기(150)로부터 제1 방향(D1)으로 제2 거리 이내에 위치하는 제2 서브 카메라 장치(162)와, 모의 총기(150)로부터 제1 방향(D1)으로 제1 거리 내지 제2 거리 사이의 범위에 위치하는 제1 서브 카메라 장치(161)를 포함하고, 제1 및 제2 서브 카메라 장치들(161, 162)를 이용하여 제1 및 제2 레이저 이미지들(LI1, LI2)를 각각 센싱 할 수 있다. 이 경우, 훈련자 단말(120)은 제1 및 제2 레이저 이미지들(LI1, LI2) 각각의 좌표에 기초하여 레이저의 진행 방향 또는 모의 총기(150)의 총구 방향을 산출할 수 있으며, 총구 방향에 기초하여 보다 정확한 탄착점 보정을 수행할 수 있다. 총구 방향(또는, 레이저 진행 방향)에 기초하여 탄착점을 보정하는 구성은 6a를 참조하여 설명한 탄착점 보정과 실질적으로 동일하므로, 중복되는 설명은 반복하지 않기로 한다.For example, the
즉, 영상 사격 훈련 시스템(100)은 모의 총기(150)의 기울기를 센싱하기 위한 별도의 센싱 모듈을 구비하지 않더라도, 모의 총기(150)의 기울기를 정확하게 측정할 수 있다. 또한, 제1 및 제2 레이저 이미지들(LI1, LI2)을 통과하는 직선 상에 모의 총기(150)가 위치함에 따라, 모의 총기(150)의 위치(예를 들어, 높이)를 보다 정확하게 측정할 수 있다. 따라서, 영상 사격 훈련 시스템(100)은 보다 정확하게 측정된 모의 총기(150)의 기울기 및/또는 모의 총기(150)의 위치에 기초하여 탄착점 보정을 보다 정확하게 수행할 수 있다.That is, the image
도 9는 도 1의 영상 사격 훈련 시스템에서 수행되는 영상 사격 훈련 방법을 나타내는 도면이다.9 is a diagram illustrating an image shooting training method performed in the image shooting training system of FIG. 1.
도 1 및 도 9를 참조하면, 도 9의 방법은 도 1의 영상 사격 훈련 시스템(100)에서 수행될 수 있다.1 and 9, the method of FIG. 9 may be performed in the image
도 9의 방법은 영상 사격 훈련 환경을 설정할 수 있다(S910). 도 1을 참조하여 설명한 바와 같이, 도 9의 방법은 통제관 단말(110)을 통해 사격 모드 등의 영상 사격 훈련 환경을 설정할 수 있다.The method of FIG. 9 may set an image shooting training environment (S910). As described with reference to FIG. 1, the method of FIG. 9 may set an image shooting training environment such as a shooting mode through the
도 9의 방법은 훈련자 단말(120)을 통해 영상 사격 훈련 환경에 기초하여 가상 사격 훈련장을 구성하고(S920), 모의 총기(150)를 기준으로 시선 방향에 위치하는 가상 사격 훈련장의 적어도 일부에 대한 영상 데이터를 생성할 수 있다(S930). 또한, 도 9의 방법은 표시 장치(130)을 통해 영상 데이터에 기초하여 스크린(140) 상에 사격 훈련 영상을 표시할 수 있다(S940).The method of FIG. 9 configures the virtual shooting training ground based on the image shooting training environment through the trainer terminal 120 (S920), and at least a portion of the virtual shooting training ground positioned in the gaze direction based on the
이후, 통제관을 통해 사격 훈련이 개시되고, 사용자(USER)의 사격 동작(또는, 트리거 동작)에 따라 모의 총기(150)는 레이저를 생성/발사하며, 레이저에 의해 스크린(140)에 레이저 이미지가 형성될 수 있다.Thereafter, shooting training is started through the controller, and according to the shooting operation (or triggering operation) of the user USER, the
도 9의 방법은 카메라 장치(160)를 통해 스크린(140) 상의 레이저 이미지를 인식할 수 있다(S950).The method of FIG. 9 may recognize the laser image on the
도 9의 방법은, 모의 총기(150)에서 생성된 격발 신호가 생성된 경우(즉, 격발 신호가 생성된 시점)에 인식된 레이저 이미지에 기초하여 가상 사격 훈련장 내에서 레이저의 탄착점을 산출하고(S960), 탄착점에 기초하여 탄착 영상 데이터를 생성할 수 있다(S970).The method of FIG. 9 calculates the impact point of the laser in the virtual shooting training ground based on the recognized laser image when the trigger signal generated in the
도 6a, 도 6b를 참조하여 설명한 바와 같이, 도 9의 방법은 훈련자 단말(120)을 통해 모의 총기(150)의 기울기와 초기 탈출각(즉, 모의 총기(150)를 기준으로 탄환의 발사 각도)에 기초하여 가상 사격 훈련장 내에서 탄환의 발사 방향을 결정하고, 탄환의 발사 방향, 탄환의 속도, 탄도 방정식 등을 이용하여 실제 탄착점(즉, 실제 탄환이 탄착될 것으로 예측되는 지점)을 산출할 수 있다. 이후, 도 9의 방법은 훈련자 단말(120)을 통해 탄착 지점에 대해 탄착 영상 데이터를 생성하며, 표시 장치(130)를 통해 탄착 영상을 표시할 수 있다.As described with reference to FIGS. 6A and 6B, the method of FIG. 9 is based on the inclination and initial escape angle of the
한편, 사격 훈련이 종료된 경우, 도 9의 방법은 훈련자 단말(120)을 통해 탄착점 등에 기초하여 사격 훈련 결과를 생성하고, 표시 장치(130)를 통해 사격 훈련 결과를 표시하며, 통제관 단말(120)을 통해 사격 훈련 결과를 데이터베이스에 저장할 수 있다.On the other hand, when the shooting training is finished, the method of FIG. 9 generates a shooting training result based on the impact point through the
본 발명은 스크린에 레이저를 발사하는 가상 사격 훈련 시스템 및 사격 훈련 방법에 적용될 수 있다.The present invention can be applied to a virtual shooting training system and a shooting training method for firing a laser on a screen.
상술한 바와 같이, 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 것이다.As described above, although described with reference to the embodiments of the present invention, those of ordinary skill in the art variously modified the present invention without departing from the spirit and scope of the present invention described in the claims below. It will be understood that modifications and variations can be made.
Claims (7)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020170046025A KR101938257B1 (en) | 2017-04-10 | 2017-04-10 | Image shooting simulation system |
| KR10-2017-0046025 | 2017-04-10 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018190484A1 true WO2018190484A1 (en) | 2018-10-18 |
Family
ID=63793269
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2017/012760 Ceased WO2018190484A1 (en) | 2017-04-10 | 2017-11-10 | Image shooting training system |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR101938257B1 (en) |
| WO (1) | WO2018190484A1 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110274517A (en) * | 2019-06-12 | 2019-09-24 | 中国地质大学(武汉) | A kind of shooting auxiliary training room based on high-speed industrial camera |
| CN111589099A (en) * | 2020-04-02 | 2020-08-28 | 深圳创维-Rgb电子有限公司 | A laser sensing system and laser sensing method |
| CN111664741A (en) * | 2020-06-08 | 2020-09-15 | 中国人民解放军陆军特种作战学院 | Interaction method of intelligent target system for shooting training |
| CN111664742A (en) * | 2020-06-08 | 2020-09-15 | 中国人民解放军陆军特种作战学院 | Intelligent target system based on air imaging |
| CN114413681A (en) * | 2022-02-09 | 2022-04-29 | 翟晓峰 | Magnetoelectric rifle system of shooing |
| CN115560630A (en) * | 2022-09-26 | 2023-01-03 | 中国人民解放军陆军工程大学 | Simulated shooting system based on visible light |
| CN116294784A (en) * | 2023-02-23 | 2023-06-23 | 四川御刃科技有限公司 | Shooting Teaching System Based on Image Recognition |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111179679B (en) * | 2019-12-31 | 2022-01-28 | 广东虚拟现实科技有限公司 | Shooting training method and device, terminal equipment and storage medium |
| KR102444857B1 (en) * | 2020-11-30 | 2022-09-19 | 주식회사 제이콥시스템 | Military and police virtual training device and driving method of the device |
| KR102444856B1 (en) * | 2020-11-30 | 2022-09-19 | 주식회사 제이콥시스템 | Virtual sniper training device and method of driving the device |
| KR102812940B1 (en) * | 2022-10-29 | 2025-05-23 | 동서대학교 산학협력단 | Automatic zero point correction method of laser shooting system |
| KR102900735B1 (en) | 2022-12-29 | 2025-12-18 | 대한민국 | Device and method for measuring physical characteristics of electroshock weapons |
| KR102640632B1 (en) * | 2023-03-24 | 2024-02-28 | (주)뉴작 | Augmented reality(XR)-based ultra-realistic combat training method and system using a real gun with a XR controller attached |
| KR20250059165A (en) | 2023-10-24 | 2025-05-02 | (주)지우정보기술 | MR based virtual shooting training method |
| KR102762150B1 (en) | 2024-02-02 | 2025-02-04 | 팁코리아 주식회사 | Smart Wireless Launch Device for Firearms and Driving Method Thereof |
| CN118999253A (en) * | 2024-08-09 | 2024-11-22 | 山东崇军电子科技有限公司 | Individual soldier shooting dynamic feedback analysis system and device based on AI simulation |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20110056019A (en) * | 2009-11-20 | 2011-05-26 | 이지프로젝터서비스(주) | Screen shooting simulation system and method |
| KR101259067B1 (en) * | 2010-05-11 | 2013-04-29 | 옥철식 | Shooting game supporting system and method |
| KR101398402B1 (en) * | 2012-01-10 | 2014-05-27 | (주) 알디텍 | Screen Shooting Simulation System With Mat-type Recognition Interface For Movement |
| KR101468160B1 (en) * | 2012-12-21 | 2014-12-05 | 주식회사 도담시스템스 | Training system for improving shooting accuracy and its control method |
| KR101610703B1 (en) * | 2014-06-30 | 2016-04-08 | 주식회사 도담시스템스 | Simulation apparatus for virtual shooting |
| US20170045339A1 (en) * | 2015-08-11 | 2017-02-16 | Xing Zhao | Laser Electronic Target System Using Non-Overlapping and Crossing Rectangular Laser Screens |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101314179B1 (en) | 2011-07-08 | 2013-10-02 | 주식회사 도담시스템스 | Apparatus for fire training simulation system |
-
2017
- 2017-04-10 KR KR1020170046025A patent/KR101938257B1/en active Active
- 2017-11-10 WO PCT/KR2017/012760 patent/WO2018190484A1/en not_active Ceased
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20110056019A (en) * | 2009-11-20 | 2011-05-26 | 이지프로젝터서비스(주) | Screen shooting simulation system and method |
| KR101259067B1 (en) * | 2010-05-11 | 2013-04-29 | 옥철식 | Shooting game supporting system and method |
| KR101398402B1 (en) * | 2012-01-10 | 2014-05-27 | (주) 알디텍 | Screen Shooting Simulation System With Mat-type Recognition Interface For Movement |
| KR101468160B1 (en) * | 2012-12-21 | 2014-12-05 | 주식회사 도담시스템스 | Training system for improving shooting accuracy and its control method |
| KR101610703B1 (en) * | 2014-06-30 | 2016-04-08 | 주식회사 도담시스템스 | Simulation apparatus for virtual shooting |
| US20170045339A1 (en) * | 2015-08-11 | 2017-02-16 | Xing Zhao | Laser Electronic Target System Using Non-Overlapping and Crossing Rectangular Laser Screens |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110274517A (en) * | 2019-06-12 | 2019-09-24 | 中国地质大学(武汉) | A kind of shooting auxiliary training room based on high-speed industrial camera |
| CN111589099A (en) * | 2020-04-02 | 2020-08-28 | 深圳创维-Rgb电子有限公司 | A laser sensing system and laser sensing method |
| CN111664741A (en) * | 2020-06-08 | 2020-09-15 | 中国人民解放军陆军特种作战学院 | Interaction method of intelligent target system for shooting training |
| CN111664742A (en) * | 2020-06-08 | 2020-09-15 | 中国人民解放军陆军特种作战学院 | Intelligent target system based on air imaging |
| CN114413681A (en) * | 2022-02-09 | 2022-04-29 | 翟晓峰 | Magnetoelectric rifle system of shooing |
| CN115560630A (en) * | 2022-09-26 | 2023-01-03 | 中国人民解放军陆军工程大学 | Simulated shooting system based on visible light |
| CN116294784A (en) * | 2023-02-23 | 2023-06-23 | 四川御刃科技有限公司 | Shooting Teaching System Based on Image Recognition |
Also Published As
| Publication number | Publication date |
|---|---|
| KR101938257B1 (en) | 2019-04-11 |
| KR20180114381A (en) | 2018-10-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2018190484A1 (en) | Image shooting training system | |
| US11680774B2 (en) | Methods and systems for training and safety for firearm use | |
| US10030937B2 (en) | System and method for marksmanship training | |
| US10234240B2 (en) | System and method for marksmanship training | |
| US9823047B2 (en) | System and method of controlling discharge of a firearm | |
| US5686690A (en) | Weapon aiming system | |
| US10274287B2 (en) | System and method for marksmanship training | |
| CN105300181B (en) | It is a kind of can pre-tip shooting accurate photoelectronic collimating device and its adjusting process | |
| US11015902B2 (en) | System and method for marksmanship training | |
| JP4027436B2 (en) | Missile launch simulator that captures archers into virtual space | |
| US20190353457A1 (en) | System and method for marksmanship training | |
| CN105300186B (en) | A kind of integrated accurate EOTS for facilitating adjustment | |
| KR20190119004A (en) | Device for analyzing impact point improving the accuracy of ballistic and impact point by applying the shooting environment of actual personal firearm ing virtual reality and vitual shooting training simulation using the same | |
| WO2017146429A1 (en) | Virtual reality simulation system | |
| WO2018074709A1 (en) | Method and apparatus for providing live-fire simulation game | |
| US9671197B2 (en) | Remotely operated target-processing system | |
| EP4402421A1 (en) | Smart aiming device with built-in training system for marksmanship and firearm operation | |
| TWI642893B (en) | Target acquisition device and system thereof | |
| WO2021198569A1 (en) | Target acquisition system for an indirect-fire weapon | |
| JP6555804B2 (en) | Shooting training system | |
| US20070129152A1 (en) | Input device and method for shooting games | |
| KR102002452B1 (en) | Game controller | |
| KR102197701B1 (en) | Air Mouse for Shooting Games | |
| WO2019112221A1 (en) | Integrated shooting simulation system using fisheye lens camera | |
| WO2017039301A1 (en) | Shooting device having laser module holder |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17905740 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17905740 Country of ref document: EP Kind code of ref document: A1 |