WO2024090689A1 - Online shooting system using unmanned aerial vehicle - Google Patents
Online shooting system using unmanned aerial vehicle Download PDFInfo
- Publication number
- WO2024090689A1 WO2024090689A1 PCT/KR2023/004212 KR2023004212W WO2024090689A1 WO 2024090689 A1 WO2024090689 A1 WO 2024090689A1 KR 2023004212 W KR2023004212 W KR 2023004212W WO 2024090689 A1 WO2024090689 A1 WO 2024090689A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- shooting
- online
- shooter
- target
- offline
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41A—FUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
- F41A33/00—Adaptations for training; Gun simulators
- F41A33/02—Light- or radiation-emitting guns ; Light- or radiation-sensitive guns; Cartridges carrying light emitting sources, e.g. laser
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41A—FUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
- F41A33/00—Adaptations for training; Gun simulators
- F41A33/06—Recoil simulators
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/26—Teaching or practice apparatus for gun-aiming or gun-laying
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41J—TARGETS; TARGET RANGES; BULLET CATCHERS
- F41J5/00—Target indicating systems; Target-hit or score detecting systems
- F41J5/14—Apparatus for signalling hits or scores to the shooter, e.g. manually operated, or for communication between target and shooter; Apparatus for recording hits or scores
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41J—TARGETS; TARGET RANGES; BULLET CATCHERS
- F41J5/00—Target indicating systems; Target-hit or score detecting systems
- F41J5/24—Targets producing a particular effect when hit, e.g. detonation of pyrotechnic charge, bell ring, photograph
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41J—TARGETS; TARGET RANGES; BULLET CATCHERS
- F41J9/00—Moving targets, i.e. moving when fired at
- F41J9/08—Airborne targets, e.g. drones, kites, balloons
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Definitions
- the present invention relates to an online shooting system using an unmanned aerial vehicle, and particularly to an online shooting system using an unmanned aerial vehicle in a virtual space through linkage with an unmanned aerial vehicle representing a target offline.
- the conventional drone industry has been spotlighted as a promising industry through various government policies and support, but the speed of development and activation is not progressing quickly due to technical and legal limitations on the commercialization of drones.
- the global drone market is expected to grow from KRW 7.2 trillion in 2016 to KRW 43.2 trillion in 2022, followed by KRW 90.3 trillion in 2026.
- the Korean drone market is also growing rapidly.
- the number of drones reported to the government, which was only 193 in 2013, increased more than 40 times to 9,342 in 2019.
- the number of drone companies increased from only 131 in 2013 to over 2,500 in 2019, and the number of drone pilots who were in the 50s during the same period increased to over 20,000 last year.
- the main purpose of the embodiments of the present invention is to provide indoor clay shooting in a virtual space in which offline drone shooting terrain features are implemented in 3D.
- the present invention includes at least one online shooting machine for performing shooting by a shooter; a content server that is linked to each of the at least one shooting device and provides a virtual space in which an online target moves; and a screen that displays movements of the at least one online shooting machine and the online target, and displays shooting results according to the at least one online shooting device.
- the present invention has the effect of reducing costs and securing stability by forming an online drone shooting leisure space such as VR using the Internet network.
- FIG. 1 is a block diagram showing an online shooting system according to an embodiment of the present invention.
- Figure 2 is a block diagram illustrating in detail an online shooting system according to an embodiment of the present invention.
- Figure 3 is a diagram showing a shooting machine according to an embodiment of the present invention.
- Figure 4 is an exemplary diagram showing a user using an online shooting system according to an embodiment of the present invention.
- Figure 5 is a diagram illustrating an online shooting interlocking system including an online shooting system according to an embodiment of the present invention.
- Figures 6 and 7 are block diagrams detailing an offline shooting system according to an embodiment of the present invention.
- Figure 8 is a diagram showing the structure of an unmanned flying vehicle according to an embodiment of the present invention.
- the present invention relates to an online shooting system using an unmanned flying vehicle.
- the present invention proposes a system and method as a leisure product based on shooting by combining autonomous driving technology of unmanned aerial vehicles, IoT sensing technology, virtual reality technology such as VR, and technology linking reality and virtual space.
- a representative shooting leisure activity is clay shooting, and clay shooting is carried out by shooting pigeons (plates) flying in the air at 60 to 90 km per hour and hitting them with a gun.
- This leisure incurs excessive costs for shooting (guns, pigeons, etc.), and by using actual shotgun shells, there is a significant risk of misfiring.
- the conventional screen-based clay shooting system consists of a 3D screen image, a pneumatic gun, and equipment that can display whether or not a hit was hit on the screen. Although it is not the same as the enjoyment of outdoor activities that outdoor clay shooting provides, it can include liveliness such as sound and recoil (using air pressure) to provide a similar environment.
- the screen shooting range is a one-person system, so there are many spatial limitations, and the cost of building the system can be considerable.
- the online shooting system 100 of the present invention can solve and improve the problems of clay shooting in order to provide users with a risky situation, cost burden, and enjoyment.
- FIG. 1 is a block diagram showing an online shooting system according to an embodiment of the present invention.
- the online shooting system 100 includes a content server 110, an online shooting machine 120, and a screen 130.
- the online shooting system 100 may omit some of the various components exemplarily shown in FIG. 1 or may additionally include other components.
- the content server 110 is linked to each of at least one online shooting machine 120 and can provide a virtual space in which the target moves.
- the content server 110 is implemented to designate one level among a plurality of levels by adjusting the number, movement, altitude, and size of the target, and can receive records according to the designated level.
- the content server 110 is implemented to store and share information about the shooter, shooting start, and shooting data, and can be implemented in the same environment through the screen 130 by linking with a separate online shooting system or offline shooting system. You can.
- the content server 110 is implemented to randomize or designate the shooter when set to confrontation mode through linkage with a separate online shooting system or offline shooting system, and displays the target firing point and the set environment on the screen 130. can be provided.
- the content server 110 When the content server 110 randomly selects a shooter according to the confrontation mode, the content server 110 matches if the matching percentage formed based on information about the shooter and shooting data is greater than or equal to a threshold, and if the matching percent is less than the threshold, information about the shooter is provided.
- the shooting data can be weighted to generate a rematching percentage and rematched to randomly designate the shooter.
- the content server 110 stores the shooting coordinates of the online shooting machine 120 and the moving coordinates of the online target according to time, and the shooting coordinates according to the time when the online shooting machine 120 was shot and the online shooting machine 120
- the shooting position of the online target is calculated by comparing the moving coordinates of the online target according to the shooting time, and a sound signal that outputs sound based on the shooting position can be generated.
- the content server 110 When the online shooter 120 hits a part other than the online target in an environment set in a virtual space, the content server 110 generates a non-target sound signal to output a non-target sound according to the part hitting the non-target. can do.
- the non-target sound signal is generated when the shooting coordinates according to the time at which the online shooting device 120 was shot and the moving coordinates of the online target according to the time at which the online shooting device 120 was shot do not match. You can check the object according to the coordinates corresponding to the shooting coordinates according to the shooting time, and display the sound according to the object.
- the object according to the coordinates corresponding to the shooting coordinates is determined as a pre-stored object based on whether it matches by comparing the image at the time and the previously saved image corresponding to the shooting coordinates at the time of shooting. If there is no match, the features according to the image at the time are extracted and It can be determined as an object corresponding to the extracted image.
- the content server 110 generates shooting prediction data that predicts the shooting pattern of the shooter based on the movements of the shooter and the online shooter 120 during the shooting time, the movement of the online target, and the result of hitting the online target. , the movement trajectory and speed pattern of the target according to multiple levels can be controlled using the generated shooting prediction data.
- the content server 110 may represent the movements of the shooter and the online shooter 120 and the movements of the online target during the shooting time as matrix data and input them into a shooting prediction model to generate shooting prediction data.
- the shooting prediction model generates a convolution map by performing a convolution operation on matrix data, activates the convolution map by mapping and linearizing it according to a preset function, and adjusts the size of the convolution map through pooling. As the configuration is repeated, shooting prediction data can be generated.
- the content server 110 detects movement characteristics according to the movement of the shooter and the online shooter 120 based on the motion information collected through the recognition unit, compares them with the movement of the target, and hits the online target through the comparison result. can confirm.
- the online shooting machine 120 can perform shooting by a shooter and can be formed at least one.
- the online shooting machine 120 includes an infrared transmitting unit 210, a recoil unit 220, a sound generating unit 230, and a charging unit 240.
- the infrared transmitter 210 can transmit laser.
- the recoil unit 220 may generate recoil when transmitting a laser through the infrared transmitter 210.
- the sound generator 230 may generate a firing sound when transmitting a laser.
- the sound generator 230 can receive the sound signal generated by the content server 110, output it, and provide it to the shooter.
- the charging unit 240 provides power to operate the online shooting machine 120 and can charge the power.
- the reaction unit 220 and the sound generator 230 may be linked with the infrared transmitter 210 and operate by the operation of the infrared transmitter 210.
- the screen 130 may display movements of at least one online shooter 120 and an online target, and may display shooting results according to at least one online shooter 120.
- the online shooting system 100 may further include a recognition unit (not shown) that collects motion information by detecting the movement of the shooter and the online shooting machine 120.
- the content server 110 can enable an unmanned aircraft representing a target in offline shooting to be implemented in virtual space as a target, and for this purpose, the shape, direction, and speed of the unmanned aircraft in offline shooting can be implemented. etc. can be delivered and provided.
- Figure 2 is a block diagram illustrating in detail an online shooting system according to an embodiment of the present invention.
- the online shooting system 100 represents online shooting such as VR using the Internet network, and can form an online drone shooting leisure space for clay indoor shooting in a virtual space that implements offline drone shooting terrain features in 3D.
- the configuration of the virtual space is not limited to offline drone shooting features, and may be implemented so that the shooter sets the space separately.
- the offline drone shooting feature may represent an offline environment implemented through the offline shooting system 200, but is not necessarily limited thereto.
- a shooter can set up a virtual space for online shooting before starting online shooting.
- the shooter can implement a personalized map in addition to the conventionally stored map through the content server 110, which may include background setting, obstacle setting, target shape setting, etc.
- obstacles and targets are implemented so that their size can be adjusted, and difficulty can be adjusted simultaneously when adjusting the size.
- the central server 150 can supply 3D simulation leisure software through the cloud, etc. At this time, the central server 150 may be implemented to be omitted, and may be implemented to exchange services centered on the content server 110 of the online shooting system 100.
- a plurality of online shooting machines 120 can be formed, and services delivered through the central server 150 can be received through the edge device 140.
- the edge device 140 may be implemented as a speaker, etc., but is not necessarily limited thereto.
- the content server 110 registers information about the shooters of each shooting range (unit) as well as leisure software, and allows linking with local shooting ranges in other regions or enjoying the service in the same online space at the same time by starting and storing leisure sports. It can be implemented so that At this time, the content server 110 can display images and data through the screen 130.
- the content server 110 can specify a level by adjusting the target's movement, altitude, accuracy, etc., and receive records accordingly.
- Figure 3 is a diagram showing a shooting machine according to an embodiment of the present invention.
- the online shooting machine 120 has a gun firing function, a charging function, and a recreational function.
- the online shooting machine 120 includes an infrared transmitting unit 122, a recoil unit 124, a sound generating unit 126, and a charging unit 128.
- the online shooter 120 may further include an adjustment device.
- the adjustment device can be adjusted using a zero-point target before firing at the target in order to correct the angle of the infrared transmitter 122, etc.
- Figure 4 is an exemplary diagram showing a user using an online shooting system according to an embodiment of the present invention.
- the online shooting system 100 may be implemented so that a shooter hits a target in a virtual space displayed on the screen 130 through the online shooting machine 120.
- the online shooting system 100 may perform a confirmation step to enable interworking between the online shooting machine 120 and the screen 130 used before shooting. Specifically, the online shooting system 100 can check whether the content server 110 can confirm target hitting implemented on the screen 130 through the online shooting machine 120, and at this time, the confirmed online shooting machine 120 ) can only be implemented to enable hitting the target in a shooting game.
- the online shooting system 100 may be implemented to further detect the forward, backward, and left and right movements of the shooter.
- the content server 110 of the online shooting system 100 can separate the movement of the shooter and the movement of the shooting machine detected through the recognition unit, and can be implemented to control the virtual space using only the movement of the shooter.
- the space can be implemented to change as the shooter moves back and forth, left and right, and this allows the shooter to change the space for shooting during the game.
- Figure 5 is a diagram illustrating an online shooting interlocking system including an online shooting system according to an embodiment of the present invention.
- the online and offline shooting interlocking system 10 includes an online shooting system 100 and an offline shooting device 200.
- the online/offline shooting interlocking system 10 may omit some components or additionally include other components among the various components shown as examples in FIG. 5 .
- the offline shooting device 200 may be implemented to perform shooting offline.
- the offline shooting device 200 includes an offline shooting machine 210, an unmanned flying vehicle 220, and an integrated control unit 230.
- the offline shooting device 200 may omit some of the various components exemplarily shown in FIG. 5 or may additionally include other components.
- the offline shooter 210 can fire a laser that forms multiple wavelengths. At least one offline shooting machine 210 may be formed.
- the unmanned aircraft 220 provides a strike signal when the laser is delivered to the offline target 126 through at least one offline shooting device 210, and can move with the offline target 126 located at the bottom within a preset area. there is.
- the unmanned aircraft 220 includes a flight main body 122, a communication unit 124, an offline target 126, a detection unit (not shown), a processing unit (not shown), a target connection unit 128, and a display unit 129.
- the flight body 122 represents the main body of the unmanned aircraft 220.
- the communication unit 124 may transmit offline shooter information to the offline shooter 210 and the integrated control unit 230.
- the offline target 126 may be implemented to be connected to the unmanned aerial vehicle 220.
- the offline target 126 may be implemented to be attachable to and detachable from the unmanned aerial vehicle 220.
- the detection unit is applied to the offline target 126 and can detect a laser fired from at least one offline shooting device 210.
- the processing unit generates at least one offline shooter information including information about the offline shooter, shooting start, and shooting data based on the detected laser, and can generate a hit signal through the generated offline shooter information. .
- the target connection portion 128 may be connected at least in part to a winding portion formed on the inside of the unmanned air vehicle 220 to expose the offline target 126 to the outside of the unmanned air vehicle 220.
- the target connection unit 128 When shooting is completed, the target connection unit 128 winds the target connection unit 128 through a winding unit so that the offline target 126 is stored inside the unmanned flying vehicle 220, and when shooting is in progress, the unmanned flying vehicle 220 is wound through the winding unit.
- the length of the target connection portion 128 can be further adjusted during flight of 220.
- the display unit 129 may display light forming a preset color based on a hit signal.
- the integrated control unit 230 may recognize the case of hitting the unmanned flying vehicle 220 through the offline shooting machine 210 and perform a count.
- the offline shooting device 200 may further include an environment capturing unit (not shown) that captures an environment in which offline shooting is performed and generates an environmental image.
- the environment in which offline shooting is conducted may represent an environment in which obstacles are placed in the existing environment.
- the unmanned flying vehicle 220 provides a striking signal when the laser is delivered to the offline target 126 through at least one offline shooting device 210, and the offline target (126) within a preset area ( 126) is provided at the bottom and can be moved.
- the offline shooting device 200 may further include a photographing unit (not shown) that captures the environment in which the unmanned flying vehicle 220 moves and generates a captured image.
- a photographing unit (not shown) that captures the environment in which the unmanned flying vehicle 220 moves and generates a captured image.
- the unmanned aircraft 220 predicts that the unmanned aircraft 220 will collide with an obstacle in the captured image according to the progress speed and driving direction of the unmanned aircraft 220, and transmits an accident occurrence message to the integrated control unit 230. It may further include a prediction unit (not shown).
- the accident occurrence prediction unit includes a first accident occurrence prediction unit and a second accident occurrence prediction unit.
- the first accident prediction unit may predict the occurrence of a first accident when the speed of the unmanned flying vehicle 220 exceeds a preset threshold.
- the second accident prediction unit designates a part of the area where obstacles are formed among the movement areas of the unmanned aircraft 220 in the captured image as a specific area, and when the unmanned aircraft 220 moves in the specific area, the entry and exit directions are parallel. If the direction is set to the abnormal travel direction, and the actual travel direction of the unmanned air vehicle 220 is the same as the abnormal travel direction, the occurrence of a second accident can be predicted.
- the integrated control unit 230 controls the speed and direction of movement of the unmanned aircraft 220 to prevent damage to the unmanned aircraft 220 due to an accident. can do.
- the unmanned aircraft 220 is equipped with a plurality of detection units for each area of the offline target 126, and can further transmit hit location information according to the location of the detection unit that detects the laser to the integrated control unit 230 through the communication unit.
- the integrated control unit 230 further grants different scores according to the hit location information, and can provide a shooting score based on the number of times the offline target 126 is hit and the hit location information.
- the integrated control unit 230 may recognize the case of hitting the unmanned flying vehicle 220 through the offline shooting machine 210 and perform a count.
- the offline shooting device 200 can be used to check in advance whether to recognize it as a hit even when hitting the unmanned flying vehicle 220 or to recognize it as a hit only when it hits the offline target 126, and through this, May be involved in level adjustment.
- the integrated control unit 230 operates a control mode to control the speed, direction of movement, and offline target 126 of the unmanned aircraft 220 for each count of hitting the target of the unmanned aircraft 220 through the shooting device 110 within a certain period of time. can be provided.
- the control mode as the count increases, the number of changes in the speed and direction of movement of the unmanned aircraft 220 increases and the position of the offline target 126 is adjusted, and additional weight is given depending on the number of changes in speed and direction of movement. can do.
- the integrated control unit 230 calculates the aiming point through the shooting device 110 using the speed, moving direction, and moving position of the unmanned flying vehicle 220, obtains the shooting point of the shooting device 110 based on the aiming point, and shoots.
- the hitting result of the unmanned aerial vehicle 220 can be further calculated based on the hitting area of the point and offline target 126.
- the offline shooting device 200 can add a count only when the hit of the unmanned aerial vehicle 220 is recognized through the hit result and the hit signal formed by the unmanned aerial vehicle 220. Through this, errors regarding whether to hit or not can be minimized during shooting leisure.
- the unmanned aircraft 220 when the shooter hits the unmanned aircraft 220, information is transmitted to the wired/wireless transceiver on the ground indicating that the unmanned aircraft 220 has been hit, and the transmitted information is transmitted to the transmission/reception module 232 of the integrated control unit 230. ) can be transmitted to.
- the unmanned aircraft 220 is shown as communicating with the integrated control unit 230 and the operation control unit 2022 through a wired or wireless transceiver, but is not necessarily limited to this and communicates directly with the integrated control unit 230 and the operation control unit 2022. Communication can also be performed.
- the shooting machine information is transmitted to the shooting machine recognition module 236, and the RGB laser information is transmitted to the count providing unit 234 along with the shooting machine information, and the received information is updated and displayed and transmitted to the external interface unit to be converted into sound. It can be transmitted through a recognizable speaker (20200).
- Status information of the unmanned aircraft 220 can be transmitted to the operation control unit 2022 and the integrated control unit 230.
- the operation control unit 2022 can check battery information and autonomous driving abnormality information of the unmanned flying vehicle 200.
- the online shooting system 100 is implemented in a confrontation structure with the offline shooting device 200 in conjunction with the offline shooting device 200, and allows shooting online in a virtual space implemented in the same environment as the offline shooting device 200. It can be done.
- the online shooting system 100 is implemented in a confrontation structure with the offline shooting device 200 in conjunction with the offline shooting device 200, and allows shooting online in a virtual space implemented in the same environment as the offline shooting device 200. It can be done.
- the content server 110 is linked to each of at least one online shooting machine 120 and can provide a virtual space in which an online target moves.
- the content server 110 is implemented to store and share information about online shooters, shooting starts, and shooting data, and can be implemented in the same environment through the screen 130 in conjunction with the offline shooting device 200. there is.
- the content server 110 is set to a confrontation mode through interworking with the offline shooting device 200, so that the shooter is random or designated, and the target firing point and the set environment can be provided on the screen 130 in conjunction with each other.
- the content server 110 is implemented to enable simultaneous online and offline shooting remotely in conjunction with the integrated control unit 230 of the offline shooting device 200, and uses the offline shooting device 200 or the online shooting system 100.
- the confrontation mode When the confrontation mode is set, the confrontation can be matched with a random or designated shooter so that the online and offline environments are the same.
- the content server 110 receives the environmental image and generates an obstacle image representing characteristics related to the obstacle through a convolution operation on the environmental image including the obstacle to provide the same environment as the environment in which offline shooting is performed, and creates an obstacle image representing the existing environment.
- an online environment that is identical to the offline shooting environment can be created and displayed on the screen.
- the content server 110 can integrate and control the speed, direction of movement, movement position and altitude of the unmanned aircraft of the offline shooting device 200 to match the movement of the online target.
- the content server 110 may further receive external environment information of the offline shooting device 200 and further apply the environmental information to control the movement of the online target.
- the content server 110 is implemented to randomize or designate the shooter when set to a confrontation mode through linking with the offline shooting device 200, and can provide the target firing point and the set environment on the screen 130 in conjunction with each other. .
- Figures 6 and 7 are block diagrams detailing an offline shooting system according to an embodiment of the present invention.
- the offline shooting system 200 can check the flow when the offline shooting machine 210 starts shooting and hits a target.
- the offline shooting system 200 provides results according to the strike from the unmanned flying vehicle 220 to the offline shooting machine 210 and the integrated control unit 130 when hitting the unmanned flying vehicle 220 through the offline shooting machine 210. do.
- the offline shooting system 200 can be implemented to fire lasers of different wavelengths for each user when a plurality of offline shooting machines 210 are operated, and through this, it can be implemented so that multiple users can enjoy shooting together. .
- the offline shooting system 200 when the offline shooting machine 210 hits the unmanned flying vehicle 220, the promised hit light corresponding to the laser wavelength given to the offline shooting machine 210 is displayed on the display unit 229 of the unmanned flying vehicle 220. can be expressed in
- the unmanned aircraft 220 reports that the offline shooting device 210 has hit the content server of the offline shooting device 210, the integrated control unit 230, and the online shooting system 100 through wireless communication (e.g., BLE, etc.) 110).
- wireless communication e.g., BLE, etc.
- the integrated control unit 230 When the integrated control unit 230 receives information about whether the offline shooter 210 is a hit through the unmanned flying vehicle 220, it counts the hit to the number of the offline shooter 210 and simultaneously sends a hit signal to the speaker 2020. It can be transmitted and notified through the speaker 2020 so that the offline shooting machine 210 can recognize it.
- the integrated control unit 230 includes a transmitting and receiving module 232 for transmitting and receiving information through a wired/wireless transceiver, a count providing unit 234 that counts and provides received information, and an offline shooting device 210.
- a shooting machine recognition module 236 that acquires information about the target, a score calculation unit 238 that calculates a score according to shooting leisure based on the information obtained by hitting the unmanned flying vehicle 220, and a score calculating unit 238 that controls the unmanned flying vehicle 220.
- the integrated control unit 230 may omit some of the various components exemplarily shown in FIG. 7 or may additionally include other components.
- the integrated control unit 230 can transmit and receive information with the content server 110 of the online shooting system 100 through the transmission and reception module 232.
- Figure 8 is a diagram showing the structure of an unmanned flying vehicle according to an embodiment of the present invention.
- the unmanned aircraft 220 which is an offline target, can communicate with the content server 110 of the online shooting system 100 to have the same shape and movement as the online target, and can communicate with the content server 110 of the online shooting system 100 through the integrated control unit 230. Communication may be made with the server 110.
- the unmanned flying vehicle 220 can transmit information about the offline shooting device 210 to the unmanned flying vehicle 220. Specifically, matching information with the preset offline shooting device 210 may be transmitted through a wired/wireless transceiver through wireless communication (eg, BLE, Wi-fi, etc.).
- wireless communication eg, BLE, Wi-fi, etc.
- the shooting machine information may include RGB, ID, etc., but is not necessarily limited thereto.
- the unmanned aircraft 220 can transmit received information to the integrated control unit 230 and the speaker 2022 through a wired/wireless transceiver and request the functions of each system.
- Status information of the unmanned aircraft 220 can be transmitted every cycle to the unmanned aircraft control unit 2024 through a wireless transmitter, and through this, the unmanned aircraft 220 can be managed.
- the offline target 226 of the unmanned flying vehicle 220 may be partially implemented as an electromagnet.
- the current provided to the offline target 226 is limited so that the electromagnet implemented as part of the target is separated so that it appears to be broken. can do.
- the offline target 226 is implemented in the form of assembling a plurality of separated pieces implemented with magnets and electromagnets, and each magnet and electromagnet is connected to at least one side of the part that contacts each other through a connection portion and receives a hitting signal.
- the electromagnet Even if the electromagnet is separated, it can be implemented so that it does not separate from the magnet by more than a certain distance, and after a preset time has elapsed after separation, current is provided so that the magnet and electromagnet can be reattached. Alternatively, after a preset time has elapsed after the magnet and electromagnet are separated, the connection part can be wound and a current can be allowed to flow so that the magnet and electromagnet can be reattached. This can provide the same excitement as hitting and destroying an existing target.
- the shape of the offline target 226 may be implemented in the same shape as the online target provided by the online shooting system 100, and may be formed to have the same shape when struck, but is not necessarily limited to this.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Optics & Photonics (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은 무인 비행체를 이용하는 온라인 슈팅 시스템에 관한 것으로, 특히 오프라인에서의 표적을 나타내는 무인 비행체와 연동을 통한 가상 공간에서의 무인 비행체를 이용하는 온라인 슈팅 시스템에 관한 것이다. 본 연구는 2022년에서 2023년도 중소벤처기업부(정부)의 재원으로 중소기업기술정보진흥원의 지원을 받아 수행된 연구산업인 스마트관광산업 기술경쟁력 강화를 위한 기술이전 및 특허·인증지원(NO.0003312012)과 관련된다.The present invention relates to an online shooting system using an unmanned aerial vehicle, and particularly to an online shooting system using an unmanned aerial vehicle in a virtual space through linkage with an unmanned aerial vehicle representing a target offline. This study was conducted with the support of the Small and Medium Business Technology Information Promotion Agency with funding from the Ministry of SMEs and Startups (government) from 2022 to 2023. Technology transfer and patent/certification support to strengthen technological competitiveness of the smart tourism industry, a research industry (NO.0003312012) ) is related to.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section simply provides background information for this embodiment and does not constitute prior art.
종래의 드론산업은 정부의 각종 정책과 지원을 통하여 유망산업으로 각광을 받았으나, 드론이 가지고 있는 실용화에 대한 기술적, 법적인 한계로 인하여 그 발전속도와 활성화는 빠르게 진행되지 않고 있다. 드론 시장과 양적 성장은 22년 전 세계 드론시장 규모가 2016년 7조2000억원에서 2022년 43조2000억원에 이어 2026년 90조3000억원까지 성장할 전망이다. 한국 드론시장 역시 빠르게 성장하고 있다. 2013년 193대에 불과했던 정부에 신고된 드론 기체 수는 2019년 9,342대로 40배 이상 증가했다. 이로 인하여 드론 업체는 2013년에 131곳에 불과했으나 2019년 2500곳을 넘겼으며, 같은 기간에 50명대였던 드론 조종 자격 취득자 수는 지난해 2만명을 넘겼다.The conventional drone industry has been spotlighted as a promising industry through various government policies and support, but the speed of development and activation is not progressing quickly due to technical and legal limitations on the commercialization of drones. As for the drone market and quantitative growth, the global drone market is expected to grow from KRW 7.2 trillion in 2016 to KRW 43.2 trillion in 2022, followed by KRW 90.3 trillion in 2026. The Korean drone market is also growing rapidly. The number of drones reported to the government, which was only 193 in 2013, increased more than 40 times to 9,342 in 2019. As a result, the number of drone companies increased from only 131 in 2013 to over 2,500 in 2019, and the number of drone pilots who were in the 50s during the same period increased to over 20,000 last year.
이처럼 새로운 무인비행시장의 확대와 성장에도 불구하고 국내시장은 세계시장의 1.6%수준에 그치는 것은 세계 시장의 규제 완화와 지원제도 등에 대비하여 국내는 아직 완화되지 않고 있는 각종 법적 규제, 안전관리 시스템의 미비가 가장 큰 문제로 손꼽히고 있다. 이로인하여 국내의 드론 산업의 특성을 보면, 드론을 활용한 교통상태 촬영, 위험지역의 감시, 농업분야에서의 드론을 활용한 농약살포, 씨뿌리기 등에 국한되어 활용되고 있다. Despite the expansion and growth of the new unmanned aerial vehicle market, the domestic market accounts for only 1.6% of the global market due to various legal regulations and safety management systems that have not yet been relaxed in the domestic market in preparation for deregulation and support systems in the global market. Inadequacy is considered the biggest problem. Due to this, looking at the characteristics of the domestic drone industry, its use is limited to filming traffic conditions using drones, monitoring dangerous areas, and spraying pesticides and sowing seeds using drones in the agricultural field.
또한, 안전관리를 위하여 드론 실명제와 의무보험이 도입되어 적용되고 있으나, 이는 적극적인 안전에 대응할 수 있는 지원방안이 될 수 없으며, 이로 인하여 오히려 드론 불법비행 건은 '18년에 28건에서 '20년에 101건으로 4배이상 급증하고 있다. 불법비행에 대한 단속, 사고대응, 안전예방 등을 관리할 수 있는 안전관리시스템의 부재는 향후 더 큰 인명피해와 사회적 손실을 가지고 올 수 있을 것으로 보여진다.In addition, the drone real-name system and mandatory insurance have been introduced and applied for safety management, but this cannot be a support measure that can actively respond to safety, and as a result, the number of illegal drone flights has decreased from 28 in 2018 to 2020. The number of cases is increasing by more than four times to 101. The absence of a safety management system that can manage illegal flights, accident response, and safety prevention is expected to result in greater casualties and social losses in the future.
국내 드론시장의 확대를 위한 안전범위내에서의 자유로운 비행과 이 드론을 활용한 다양한 산업군으로의 확대는 지속적으로 늘어나는 드론관련 사업과 기업, 새로운 일자리 창출을 위하여 반드시 풀어야할 숙제일 것이다. 하여 드론을 활용한 다양한 상업적 모델과 레저산업으로써의 확대, 타 산업과의 융합을 통하여 규제와 인명피해의 연계성이 낮은 산업에서부터 활성화를 이끌어야할 것이다. Free flight within the safety range to expand the domestic drone market and expansion into various industries using these drones will be tasks that must be solved in order to continuously increase drone-related businesses and companies and create new jobs. Therefore, it is necessary to revitalize industries with low linkage between regulations and human casualties through various commercial models using drones, expansion into the leisure industry, and convergence with other industries.
본 발명의 실시예들은 오프라인 드론 슈팅 지형지물을 3D로 구현한 가상공간의 클레이 실내 사격을 제공하는데 발명의 주된 목적이 있다.The main purpose of the embodiments of the present invention is to provide indoor clay shooting in a virtual space in which offline drone shooting terrain features are implemented in 3D.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other unspecified objects of the present invention can be additionally considered within the scope that can be easily inferred from the following detailed description and its effects.
본 실시예의 일 측면에 의하면, 본 발명은 사격자에 의해 사격을 수행하는 적어도 하나의 온라인 사격기; 상기 적어도 하나의 사격기 각각과 연동되며, 온라인 표적이 이동하는 가상 공간을 제공하는 컨텐츠 서버; 및 상기 적어도 하나의 온라인 사격기 및 상기 온라인 표적의 움직임을 전시하고, 상기 적어도 하나의 온라인 사격기에 따른 사격 결과를 전시하는 스크린을 포함하는 온라인 사격 시스템을 제안한다.According to one aspect of this embodiment, the present invention includes at least one online shooting machine for performing shooting by a shooter; a content server that is linked to each of the at least one shooting device and provides a virtual space in which an online target moves; and a screen that displays movements of the at least one online shooting machine and the online target, and displays shooting results according to the at least one online shooting device.
이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 본 발명은 인터넷 망을 활용하여 VR 등의 온라인 드론 슈팅 레저공간을 구성하여 비용 절감 및 안정성을 확보할 수 있는 효과가 있다.As described above, according to the embodiments of the present invention, the present invention has the effect of reducing costs and securing stability by forming an online drone shooting leisure space such as VR using the Internet network.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if the effects are not explicitly mentioned here, the effects described in the following specification and their potential effects expected by the technical features of the present invention are treated as if described in the specification of the present invention.
도 1은 본 발명의 일 실시예에 따른 온라인 사격 시스템을 나타내는 블록도이다.1 is a block diagram showing an online shooting system according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 온라인 사격 시스템을 자세히 나타내는 블록도이다.Figure 2 is a block diagram illustrating in detail an online shooting system according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 사격기를 나타내는 도면이다.Figure 3 is a diagram showing a shooting machine according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 온라인 사격 시스템을 사용하는 사용자를 나타내는 예시도이다.Figure 4 is an exemplary diagram showing a user using an online shooting system according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 온라인 사격 시스템을 포함하는 온오프라인 사격 연동 시스템 나타내는 도면이다.Figure 5 is a diagram illustrating an online shooting interlocking system including an online shooting system according to an embodiment of the present invention.
도 6 및 도 7은 본 발명의 일 실시예에 따른 오프라인 사격 시스템을 자세히 나타내는 블록도이다.Figures 6 and 7 are block diagrams detailing an offline shooting system according to an embodiment of the present invention.
도 8은 본 발명의 일 실시예에 따른 무인 비행체의 구조를 나타내는 도면이다.Figure 8 is a diagram showing the structure of an unmanned flying vehicle according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely intended to ensure that the disclosure of the present invention is complete and to provide common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings that can be commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. The singular terms include plural expressions, unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.
제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms containing ordinal numbers, such as second, first, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, the second component may be referred to as the first component without departing from the scope of the present invention, and similarly, the first component may also be referred to as the second component. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.
본 발명은 무인 비행체를 이용하는 온라인 사격 시스템에 관한 것이다.The present invention relates to an online shooting system using an unmanned flying vehicle.
본 발명은 무인 비행체의 자율주행기술과 사물인터넷 센싱기술, VR 등 가상현실의 기술, 현실과 가상공간의 연계 기술을 접목하여 사격을 기반으로한 레저 상품으로써의 시스템과 그 방법을 제안한다.The present invention proposes a system and method as a leisure product based on shooting by combining autonomous driving technology of unmanned aerial vehicles, IoT sensing technology, virtual reality technology such as VR, and technology linking reality and virtual space.
사격레저의 대표적인 것은 클레이 사격이며, 클레이 사격은 시속 60~90km로 공중을 비행하는 피전(접시)을 총으로 사격하여 명중시키는 방식으로 진행된다. 이 레저는 사격을 위해 소비되는 과도한 비용(총, 피전 등)이 발생하고, 실제 산탄 총알을 활용함으로써 오발사 시 상당한 위험성을 가지고 있다.A representative shooting leisure activity is clay shooting, and clay shooting is carried out by shooting pigeons (plates) flying in the air at 60 to 90 km per hour and hitting them with a gun. This leisure incurs excessive costs for shooting (guns, pigeons, etc.), and by using actual shotgun shells, there is a significant risk of misfiring.
종래의 스크린을 통한 클레이 사격 시스템은 3D급 스크린 영상, 공기압 주입식 총, 스크린에 명중여부를 표현할 수 있는 장비로 구성되어있다. 야외의 클레이사격이 주는 야외활동의 즐거움까지는 아니지만, 유사한 환경을 제공하고자 소리와 반동(공기압을 이용한) 등의 생동감을 포함할 수 있다. 하지만 스크린 사격장은 1인 시스템으로 구성되어 공간적인 제약이 많으며, 시스템 구축에 상당한 비용이 들 수 있다.The conventional screen-based clay shooting system consists of a 3D screen image, a pneumatic gun, and equipment that can display whether or not a hit was hit on the screen. Although it is not the same as the enjoyment of outdoor activities that outdoor clay shooting provides, it can include liveliness such as sound and recoil (using air pressure) to provide a similar environment. However, the screen shooting range is a one-person system, so there are many spatial limitations, and the cost of building the system can be considerable.
따라서, 클레이 사격의 문제점인 위험성과 비용의 부담을 줄이면서 야외의 클레이사격이 주는 생동감과 활동감을 가질 수 있도록 유지하며, 다양한 산업과 융합하여 사회적 기여를 할 수 있는 방안이 필요하다.Therefore, a plan is needed to reduce the risk and cost burden of clay shooting, while maintaining the vitality and activity that outdoor clay shooting provides, and to contribute to society by integrating with various industries.
이에, 본 발명의 온라인 사격 시스템(100)은 이러한 클레이사격이 가지고 있는 위험한 상황, 비용적 부담, 이용자의 즐거움을 제공하기 위하여 문제를 해결하고 개선할 수 있다.Accordingly, the
도 1은 본 발명의 일 실시예에 따른 온라인 사격 시스템을 나타내는 블록도이다.1 is a block diagram showing an online shooting system according to an embodiment of the present invention.
도 1을 참조하면, 온라인 사격 시스템(100)은 컨텐츠 서버(110), 온라인 사격기(120) 및 스크린(130)을 포함한다. 온라인 사격 시스템(100)은 도 1에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.Referring to FIG. 1, the
컨텐츠 서버(110)는 적어도 하나의 온라인 사격기(120) 각각과 연동되며, 표적이 이동하는 가상 공간을 제공할 수 있다.The
컨텐츠 서버(110)는 표적의 개수, 움직임, 고도 및 크기를 조정함에 따라 복수의 레벨(Level) 중 하나의 레벨을 지정하도록 구현되며, 지정된 레벨에 따른 기록을 전달받을 수 있다.The
컨텐츠 서버(110)는 사격자에 대한 정보, 사격 시작 및 사격 데이터를 저장하고 공유 가능하도록 구현되며, 별도의 온라인 사격 시스템 또는 오프라인 사격 시스템과 연동하여 스크린(130)을 통해 같은 환경으로 구현되도록 할 수 있다.The
컨텐츠 서버(110)는 별도의 온라인 사격 시스템 또는 오프라인 사격 시스템과의 연동을 통해 대결 모드로 설정하면 사격자를 무작위 또는 지정하도록 구현되며, 표적의 발사 지점 및 설정된 환경을 서로 연동하여 스크린(130)에 제공할 수 있다.The
컨텐츠 서버(110)는 대결 모드에 따라 사격자를 무작위로 선택하는 경우, 사격자에 대한 정보 및 사격 데이터를 기반으로 형성된 매칭 퍼센트가 임계치 이상인 경우 매칭되며, 매칭 퍼센트가 임계치 미만인 경우 사격자에 대한 정보 또는 사격 데이터에 가중치를 부여하여 재매칭 퍼센트를 생성하여 재매칭 진행하여 사격자를 무작위로 지정할 수 있다.When the
컨텐츠 서버(110)는 시간에 따른 온라인 사격기(120)의 사격 좌표 및 온라인 표적의 이동 좌표를 저장하고, 온라인 사격기(120)가 사격된 시간에 따른 사격 좌표 및 온라인 사격기(120)가 사격된 시간에 따른 온라인 표적의 이동 좌표를 비교하여 온라인 표적의 사격 위치를 계산하며, 사격 위치를 기반으로 사운드를 출력하는 사운드 신호를 생성할 수 있다.The
컨텐츠 서버(110)는 가상 공간 내에서 설정된 환경에서 온라인 사격기(120)가 온라인 표적을 제외한 부분을 타격하는 경우, 비표적을 타격한 부분에 따른 비표적 사운드를 출력하도록 비표적 사운드 신호를 생성할 수 있다.When the
비표적 사운드 신호는 온라인 사격기(120)가 사격된 시간에 따른 사격 좌표 및 온라인 사격기(120)가 사격된 시간에 따른 온라인 표적의 이동 좌표가 일치하지 않는 경우, 온라인 사격기(120)가 사격된 시간에 따른 사격 좌표와 대응되는 좌표에 따른 물체를 확인하고, 물체에 따른 사운드를 나타낼 수 있다.The non-target sound signal is generated when the shooting coordinates according to the time at which the
사격 좌표와 대응되는 좌표에 따른 물체는 사격 당시 사격 좌표에 대응되는 당시 이미지 및 기 저장된 이미지를 비교하여 일치 여부에 따라 기 저장된 물체로 결정하고, 일치하지 않는 경우, 당시 이미지에 따른 특징을 추출하여 추출된 이미지에 대응되는 물체로 결정할 수 있다.The object according to the coordinates corresponding to the shooting coordinates is determined as a pre-stored object based on whether it matches by comparing the image at the time and the previously saved image corresponding to the shooting coordinates at the time of shooting. If there is no match, the features according to the image at the time are extracted and It can be determined as an object corresponding to the extracted image.
컨텐츠 서버(110)는 사격 시간 동안의 사격자 및 온라인 사격기(120)의 움직임과, 온라인 표적의 움직임과, 온라인 표적의 타격 결과를 기반으로 사격자의 사격 패턴을 예측하는 사격 예측 데이터를 생성하고, 생성된 사격 예측 데이터를 이용하여 복수의 레벨(Level)에 따른 표적의 이동 궤적 및 속도 패턴을 제어할 수 있다.The
컨텐츠 서버(110)는 사격 시간 동안의 사격자 및 온라인 사격기(120)의 움직임 및 온라인 표적의 움직임을 행렬 데이터로 나타내어 사격 예측 모델에 입력하여 사격 예측 데이터를 생성할 있다.The
사격 예측 모델은 행렬 데이터에 대해 컨볼루션 연산을 수행함에 따라 컨볼루션 맵을 생성하고, 컨볼루션 맵을 기 설정된 함수에 따라 매핑하여 선형화함에 따라 활성화하며, 풀링을 통해 상기 컨볼루션 맵의 크기를 조절하는 구성이 반복됨에 따라 사격 예측 데이터를 생성할 수 있다.The shooting prediction model generates a convolution map by performing a convolution operation on matrix data, activates the convolution map by mapping and linearizing it according to a preset function, and adjusts the size of the convolution map through pooling. As the configuration is repeated, shooting prediction data can be generated.
컨텐츠 서버(110)는 인식부를 통해 수집한 동작 정보를 기반으로 사격자 및 온라인 사격기(120)의 움직임에 따른 움직임 특징을 검출하여 표적의 움직임과 비교하고, 비교한 결과를 통해 온라인 표적의 타격을 확인할 수 있다.The
온라인 사격기(120)는 사격자에 의해 사격을 수행할 수 있으며, 적어도 하나 형성될 수 있다.The
온라인 사격기(120)는 적외선 송신부(210), 반동부(220), 소리 발생부(230) 및 충전부(240)를 포함한다.The
적외선 송신부(210)는 레이저를 송신할 수 있다.The
반동부(220)는 적외선 송신부(210)를 통해 레이저를 송신하는 경우 반동을 발생시킬 수 있다.The
소리 발생부(230)는 레이저 송신 시 발사 소리를 생성할 수 있다.The
소리 발생부(230)는 컨텐츠 서버(110)에서 생성된 사운드 신호를 전달받아 출력하여 사격자에게 제공할 수 있다.The
충전부(240)는 온라인 사격기(120)를 동작하기 위한 전원을 제공하고, 전원을 충전할 수 있다.The charging unit 240 provides power to operate the
반동부(220) 및 소리 발생부(230)는 적외선 송신부(210)와 연동되어, 적외선 송신부(210)의 동작에 의해 동작할 수 있다.The
스크린(130)은 적어도 하나의 온라인 사격기(120) 및 온라인 표적의 움직임을 전시하고, 적어도 하나의 온라인 사격기(120)에 따른 사격 결과를 전시할 수 있다.The
온라인 사격 시스템(100)은 사격자의 움직임 및 온라인 사격기(120)의 움직임을 감지하여 동작 정보를 수집하는 인식부(미도시)를 더 포함할 수 있다.The
본 발명의 일 실시예예 따르면, 컨텐츠 서버(110)는 오프라인 사격에서의 표적을 나타내는 무인 비행체가 표적으로서, 가상 공간에 구현되도록 할 수 있으며, 이를 위해 오프라인 사격에서의 무인 비행체의 형태, 방향, 속도 등을 전달받아 제공할 수 있다.According to an embodiment of the present invention, the
도 2는 본 발명의 일 실시예에 따른 온라인 사격 시스템을 자세히 나타내는 블록도이다.Figure 2 is a block diagram illustrating in detail an online shooting system according to an embodiment of the present invention.
온라인 사격 시스템(100)는 인터넷 망을 활용한 VR 등의 온라인 슈팅에 대한 것을 나타내며, 오프라인 드론슈팅 지형지물을 3D로 구현한 가상공간의 클레이 실내사격을 위한 온라인 드론슈팅 레저공간을 구성할 수 있다. 이때, 가상공간의 구성은 오프라인 드론슈팅 지형지물에 한정되는 것은 아니며, 사격자가 공간을 별도로 설정하도록 구현될 수도 있다. 여기서, 오프라인 드론슈팅 지형지물은 오프라인 사격 시스템(200)을 통해 구현되는 오프라인 환경을 나타낼 수 있으며, 반드시 이에 한정되는 것은 아니다.The
본 발명의 일 실시예에 따르면, 사격자는 온라인을 통한 사격 시작 전, 온라인 슈팅을 위한 가상공간을 설정할 수 있다. 구체적으로, 사격자는 컨텐츠 서버(110)를 통해 종래에 저장된 맵 이외에 개인 설정 맵을 더 구현할 수 있으며, 배경 설정, 장애물 설정, 표적 형상 설정 등으로 이루어질 수 있다. 이때, 장애물 및 표적은 크기 조절이 가능하도록 구현되며, 크기 조절 시 난이도 조절이 함께 이루어지도록 구현될 수 있다.According to an embodiment of the present invention, a shooter can set up a virtual space for online shooting before starting online shooting. Specifically, the shooter can implement a personalized map in addition to the conventionally stored map through the
중앙 서버(150)는 클라우드 등으로 3D 시뮬레이션 레저 소프트웨어를 공급할 수 있다. 이때, 중앙 서버(150)는 생략 가능하도록 구현될 수 있으며, 온라인 사격 시스템(100)의 컨텐츠 서버(110)를 중심으로 서비스를 주고 받도록 구현될 수 있다.The
온라인 사격기(120)는 복수개 형성될 수 있으며, 중앙 서버(150)를 통해 전달받은 서비스를 엣지 장치(140)를 통해 받을 수 있다. 여기서, 엣지 장치(140)는 스피커 등으로 구현될 수 있으며, 반드시 이에 한정되는 것은 아니다.A plurality of
컨텐츠 서버(110)는 레저 소프트웨어 뿐만 아니라 각 사격장(기)의 사격자에 대한 정보를 등록, 레저스포츠의 시작, 저장 등을 통하여 타지역 로컬 사격장과의 연동 또는 동시에 동일 온라인 공간에서 서비스를 즐길 수 있도록 구현될 수 있다. 이때, 컨텐츠 서버(110)는 영상과 데이터를 스크린(130)을 통해 표출할 수 있다.The
컨텐츠 서버(110)는 표적의 움직임, 고도, 명중률 등을 조정하여 Level을 지정할 수 있고, 그에 따른, 기록을 제공받을 수 있다.The
도 3은 본 발명의 일 실시예에 따른 사격기를 나타내는 도면이다.Figure 3 is a diagram showing a shooting machine according to an embodiment of the present invention.
도 3을 참고하면, 온라인 사격기(120)는 총의 발사 기능, 충전 기능, 레저용의 체감 기능을 보유하고 있다. 구체적으로, 온라인 사격기(120)는 적외선 송신부(122), 반동부(124), 소리 발생부(126) 및 충전부(128)를 포함한다.Referring to FIG. 3, the
온라인 사격기(120)는 조절 장치를 더 포함할 수 있다. 조절 장치는 적외선 송신부(122)의 각도 틀어짐 등 보정을 위하여 표적에 발사하기 이전에 영점 타겟을 활용하여 조절할 수 있다.The
도 4는 본 발명의 일 실시예에 따른 온라인 사격 시스템을 사용하는 사용자를 나타내는 예시도이다.Figure 4 is an exemplary diagram showing a user using an online shooting system according to an embodiment of the present invention.
도 4를 참고하면, 온라인 사격 시스템(100)은 사격자가 온라인 사격기(120)를 통해 스크린(130)에 전시된 가상공간 내의 표적을 타격하도록 구현될 수 있다.Referring to FIG. 4 , the
본 발명의 일 실시예에 따르면, 온라인 사격 시스템(100)은 사격 전 사용하는 온라인 사격기(120) 및 스크린(130) 사이에 연동이 가능하도록 확인 단계를 수행할 수 있다. 구체적으로, 온라인 사격 시스템(100)은 컨텐츠 서버(110)가 온라인 사격기(120)를 통해 스크린(130)에 구현되는 표적 타격 확인이 가능한지 여부를 확인할 수 있으며, 이때 확인된 온라인 사격기(120)만 사격 게임에서 표적의 타격이 가능하도록 구현될 수 있다.According to one embodiment of the present invention, the
본 발명의 일 실시예에 따르면, 온라인 사격 시스템(100)은 사격자의 전후, 좌우 이동을 더 감지하도록 구현될 수 있다. 구체적으로, 온라인 사격 시스템(100)의 컨텐츠 서버(110)는 인식부를 통해 감지한 사격자의 움직임 및 사격기의 움직임을 분리할 수 있으며, 사격자의 움직임만을 이용하여 가상공간 제어가 이루어지도록 구현될 수 있다. 예를 들어, 사격자가 전후, 좌우 움직임에 따라 공간이 변화하도록 구현될 수 있으며, 이를 통해 사격자가 사격을 위한 공간을 게임 중에 바꿀 수 있도록 할 수 있다. According to one embodiment of the present invention, the
도 5는 본 발명의 일 실시예에 따른 온라인 사격 시스템을 포함하는 온오프라인 사격 연동 시스템 나타내는 도면이다.Figure 5 is a diagram illustrating an online shooting interlocking system including an online shooting system according to an embodiment of the present invention.
도 5를 참조하면, 온오프라인 사격 연동 시스템(10)은 온라인 사격 시스템(100) 및 오프라인 사격 장치(200)를 포함한다. 온오프라인 사격 연동 시스템(10)은 도 5에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.Referring to FIG. 5 , the online and offline
오프라인 사격 장치(200)는 오프라인으로 사격을 수행하도록 구현될 수 있다.The
오프라인 사격 장치(200)는 오프라인 사격기(210), 무인 비행체(220) 및 통합 제어부(230)를 포함한다. 오프라인 사격 장치(200)는 도 5에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.The
오프라인 사격기(210)는 다중 파장을 형성하는 레이저를 발사할 수 있다. 오프라인 사격기(210)는 적어도 하나 형성될 수 있다.The
무인 비행체(220)는 적어도 하나의 오프라인 사격기(210)를 통해 레이저가 오프라인 표적(126)에 전달되면 타격 신호를 제공하며, 기 설정된 구역 내에서 오프라인 표적(126)을 하단에 구비하고 이동할 수 있다.The
무인 비행체(220)는 비행 본체(122), 통신부(124), 오프라인 표적(126), 감지부(미도시), 처리부(미도시), 표적 연결부(128) 및 표시부(129)를 포함한다.The
비행 본체(122)는 무인 비행체(220)의 본체를 나타낸다.The
통신부(124)는 오프라인 사격기(210) 및 통합 제어부(230)에 오프라인 사격기 정보를 전송할 수 있다.The
오프라인 표적(126)은 무인 비행체(220)와 연결되도록 구현될 수 있다.The
오프라인 표적(126)은 무인 비행체(220)에 탈착 가능하도록 구현될 수 있다.The
감지부는 오프라인 표적(126)에 적용되며, 적어도 하나의 오프라인 사격기(210)에서 발사된 레이저를 감지할 수 있다.The detection unit is applied to the
처리부는 감지된 레이저를 기반으로 오프라인 사격자에 대한 정보, 사격 시작 및 사격 데이터를 포함하는 적어도 하나의 오프라인 사격기 정보를 생성하며, 상기 생성된 오프라인 사격기 정보를 통해 명중 신호를 생성할 수 있다.The processing unit generates at least one offline shooter information including information about the offline shooter, shooting start, and shooting data based on the detected laser, and can generate a hit signal through the generated offline shooter information. .
표적 연결부(128)는 무인 비행체(220)의 내측에 형성되는 권취부에 적어도 일부가 연결되어 오프라인 표적(126)을 무인 비행체(220)의 외측으로 노출시키도록 연결할 수 있다.The
표적 연결부(128)는 사격이 완료되는 경우 오프라인 표적(126)을 무인 비행체(220)의 내측에 보관되도록 권취부를 통해 표적 연결부(128)를 권취하고, 사격이 진행되는 경우, 권취부를 통해 무인 비행체(220)의 비행 중 표적 연결부(128)의 길이를 더 조절할 수 있다.When shooting is completed, the
표시부(129)는 명중 신호에 의해 기 설정된 색을 형성하는 불빛을 표시할 수 있다.The display unit 129 may display light forming a preset color based on a hit signal.
통합 제어부(230)는 오프라인 사격기(210)를 통해 무인 비행체(220)를 타격하는 경우를 인식하여 카운트를 수행할 수 있다.The
오프라인 사격 장치(200)는 오프라인 사격을 진행하는 환경을 촬영하여 환경 영상을 생성하는 환경 촬영부(미도시)를 더 포함할 수 있다. 여기서, 오프라인 사격을 진행하는 환경은 기존 환경에 장애물이 배치된 환경을 나타낼 수 있다.The
본 발명의 일 실시예에 따르면, 무인 비행체(220)는 적어도 하나의 오프라인 사격기(210)를 통해 레이저가 오프라인 표적(126)에 전달되면 타격 신호를 제공하며, 기 설정된 구역 내에서 오프라인 표적(126)을 하단에 구비하고 이동할 수 있다.According to one embodiment of the present invention, the
오프라인 사격 장치(200)는 무인 비행체(220)가 이동하는 환경을 촬영하여 촬영 영상을 생성하는 촬영부(미도시)를 더 포함할 수 있다.The
무인 비행체(220)는 무인 비행체(220)의 진행 속도와 주행 방향에 따라 무인 비행체(220)가 촬영 영상 내의 장애물과 충돌할 것으로 예측하고, 통합 제어부(230)로 사고 발생 메시지를 전송하는 사고 발생 예측부(미도시)를 더 포함할 수 있다.The
사고 발생 예측부는, 제1 사고 발생 예측부 및 제2 사고 발생 예측부를 포함한다.The accident occurrence prediction unit includes a first accident occurrence prediction unit and a second accident occurrence prediction unit.
제1 사고 발생 예측부는 무인 비행체(220)의 속도가 기 설정된 임계치를 초과하는 경우 제1 사고 발생을 예측할 수 있다.The first accident prediction unit may predict the occurrence of a first accident when the speed of the
제2 사고 발생 예측부는 촬영 영상에서 무인 비행체(220)의 이동 영역 중 장애물이 형성되는 영역의 일부를 특정 영역으로 지정하고, 특정 영역에서 무인 비행체(220)의 이동 시 진입 방향과 진출 방향이 나란한 방향을 이상 진행 방향으로 설정하고, 무인 비행체(220)의 실제 주행 방향이 이상 진행 방향과 같은 경우 제2 사고 발생을 예측할 수 있다.The second accident prediction unit designates a part of the area where obstacles are formed among the movement areas of the
통합 제어부(230)는 사고 발생 예측부로부터 제1 사고 발생 또는 제2 사고 발생을 예측하는 경우, 무인 비행체(220)의 속도 및 이동 방향을 제어하여 사고로 인한 무인 비행체(220)의 파손을 방지할 수 있다.When the accident prediction unit predicts the occurrence of a first or second accident, the
무인 비행체(220)는 오프라인 표적(126)의 면적 별로 감지부가 복수 개 구비되며, 레이저를 감지한 감지부가 구비된 위치에 따른 명중 위치 정보를 통신부를 통해 통합 제어부(230)에 더 전송할 수 있다.The
통합 제어부(230)는 명중 위치 정보에 따라 서로 다른 점수를 더 부여하며, 오프라인 표적(126)을 타격한 횟수 및 명중 위치 정보를 기반으로 사격 점수를 제공할 수 있다.The
통합 제어부(230)는 오프라인 사격기(210)를 통해 무인 비행체(220)를 타격하는 경우를 인식하여 카운트를 수행할 수 있다.The
구체적으로, 오프라인 사격 장치(200)는 무인 비행체(220)를 타격하는 경우에도 타격으로 인식할지 또는 오프라인 표적(126)을 타격하는 경우에만 타격으로 인식할지 여부를 미리 체크하여 이용할 수 있으며, 이를 통해 레벨 조정에 관여할 수 있다.Specifically, the
통합 제어부(230)는 일정 시간 내에 사격기(110)를 통해 무인 비행체(220)의 표적을 타격하는 카운트 별로 무인 비행체(220)의 속도, 이동 방향 및 오프라인 표적(126)을 제어하는 제어 모드를 제공할 수 있다. 여기서, 제어 모드는 카운트가 증가함에 따라 무인 비행체(220)의 속도 및 이동 방향 변경 횟수가 증가하고 오프라인 표적(126)의 위치를 조절하며, 속도 및 이동 방향 변경 횟수에 따라 별도의 가중치를 더 부여할 수 있다.The
통합 제어부(230)는 무인 비행체(220)의 속도, 이동 방향 및 이동 위치를 이용하여 사격기(110)를 통한 조준점을 계산하고 조준점을 기반으로 사격기(110)의 사격점을 획득하며, 사격점 및 오프라인 표적(126)의 타격 영역을 기반으로 무인 비행체(220)의 타격 결과를 더 산출할 수 있다. 오프라인 사격 장치(200)는 타격 결과 및 무인 비행체(220)에서 형성된 명중 신호를 통해 무인 비행체(220)의 타격이 인정되는 경우에만 카운트를 추가할 수 있다. 이를 통해 사격 레저 시 타격 여부에 대한 오류를 최소화할 수 있다.The
동작 프로세스의 측면에서 보면, 사격자가 무인 비행체(220)를 명중하면 무인 비행체(220)가 명중되었음을 지상에 있는 유무선 송수신기에 정보를 전송하고, 전송된 정보는 통합 제어부(230)의 송수신 모듈(232)에 전송할 수 있다. 여기서, 무인 비행체(220)는 유무선 송수신기를 통해 통합 제어부(230) 및 운영 제어부(2022)와 통신을 수행하는 것으로 도시하였으나 반드시 이에 한정되는 것은 아니며 통합 제어부(230) 및 운영 제어부(2022)와 직접적으로 통신을 수행할 수도 있다.In terms of the operation process, when the shooter hits the
전송된 정보중에 사격기 정보는 사격기 인식 모듈(236)에, RGB 레이저 정보는 사격기 정보와 함께 카운트 제공부(234)에 전송하면 수신된 정보를 업데이트하여 디스플레이하고 외부 인터페이스부로 전송하여 소리로 인식할 수 있는 스피커(20200)로 전달할 수 있다.Among the transmitted information, the shooting machine information is transmitted to the shooting
무인 비행체(220)의 상태 정보는 운영 제어부(2022)와 통합 제어부(230)으로 전송할 수 있다. Status information of the
운영 제어부(2022)는 무인 비행체(200)의 베터리 정보, 자율주행 이상유무 정보 등을 확인할 수 있다.The
온라인 사격 시스템(100)는 오프라인 사격 장치(200)와 연동되어 오프라인 사격 장치(200)와 대결 구조로 구현되며, 오프라인 사격 장치(200)의 환경과 동일한 환경으로 구현된 가상공간에서 온라인으로 사격을 수행할 수 있다.The
온라인 사격 시스템(100)는 오프라인 사격 장치(200)와 연동되어 오프라인 사격 장치(200)와 대결 구조로 구현되며, 오프라인 사격 장치(200)의 환경과 동일한 환경으로 구현된 가상공간에서 온라인으로 사격을 수행할 수 있다.The
컨텐츠 서버(110)는 적어도 하나의 온라인 사격기(120) 각각과 연동되며, 온라인 표적이 이동하는 가상 공간을 제공할 수 있다.The
컨텐츠 서버(110)는 온라인 사격자에 대한 정보, 사격 시작 및 사격 데이터를 저장하고 공유 가능하도록 구현되며, 오프라인 사격 장치(200)와 연동하여 스크린(130)을 통해 같은 환경으로 구현되도록 제공할 수 있다.The
컨텐츠 서버(110)는 오프라인 사격 장치(200)와의 연동을 통해 대결 모드로 설정되어 사격자가 무작위 또는 지정되며, 표적의 발사 지점 및 설정된 환경을 서로 연동하여 스크린(130)에 제공할 수 있다.The
컨텐츠 서버(110)는 오프라인 사격 장치(200)의 통합 제어부(230)와 연동하여 원격을 통해 온라인 및 오프라인이 동시에 사격을 이용하도록 구현되며, 오프라인 사격 장치(200) 또는 온라인 사격 시스템(100)를 통해 대결 모드가 설정되는 경우 무작위 또는 지정된 사격자와 대결이 매칭되어 온라인 및 오프라인의 환경이 동일하도록 구현할 수 있다.The
컨텐츠 서버(110)는 환경 영상을 전달받아 오프라인 사격을 진행하는 환경과 동일한 환경을 제공하도록 장애물을 포함하는 환경 영상을 컨볼루션 연산을 통해 장애물과 관련된 특징을 나타내는 장애물 영상을 생성하고, 기존 환경을 나타내는 데이터에 장애물 영상을 적용하여 오프라인 사격을 진행하는 환경과 동일한 환경을 형성하는 온라인 환경을 생성하여 스크린에 제공할 수 있다. 상술한 과정을 통해 오프라인과 같은 환경을 더 정확하게 구성할 수 있다.The
컨텐츠 서버(110)는 오프라인 사격 장치(200)의 무인 비행체의 속도, 이동 방향, 이동 위치 및 고도와 온라인 표적의 이동이 일치하도록 통합 제어할 수 있다.The
컨텐츠 서버(110)는 오프라인 사격 장치(200)의 외부 환경 정보를 더 전달받아 환경 정보를 더 적용하여 온라인 표적의 이동을 제어할 수 있다.The
컨텐츠 서버(110)는 오프라인 사격 장치(200)와의 연동을 통해 대결 모드로 설정하면 사격자를 무작위 또는 지정하도록 구현되며, 표적의 발사 지점 및 설정된 환경을 서로 연동하여 스크린(130)에 제공할 수 있다.The
도 6 및 도 7은 본 발명의 일 실시예에 따른 오프라인 사격 시스템을 자세히 나타내는 블록도이다.Figures 6 and 7 are block diagrams detailing an offline shooting system according to an embodiment of the present invention.
도 6을 참고하면, 오프라인 사격 시스템(200)은 오프라인 사격기(210)가 사격을 개시하고 명중했을 경우의 흐름을 확인할 수 있다.Referring to FIG. 6, the
오프라인 사격 시스템(200)은 오프라인 사격기(210)를 통해 무인 비행체(220)를 타격하는 경우, 무인 비행체(220)에서 오프라인 사격기(210) 및 통합 제어부(130)로 타격에 따른 결과를 제공한다.The
오프라인 사격 시스템(200)은 복수의 오프라인 사격기(210)가 운용되는 경우 사용자마다 각각 다른 파장의 레이저를 발사하도록 구현될 수 있으며, 이를 통해 다수의 이용자가 함께 사격을 즐길 수 있도록 구현될 수 있다.The
오프라인 사격 시스템(200)은 오프라인 사격기(210)가 무인 비행체(220)를 명중하면 오프라인 사격기(210)에 부여된 레이저 파장에 맞는 약속된 명중 불빛이 무인 비행체(220)의 표시부(229)에 표현될 수 있다.In the
무인 비행체(220)는 오프라인 사격기(210)가 명중했음을 무선통신(예를들어, BLE 등)을 통해 오프라인 사격기(210), 통합 제어부(230) 및 온라인 사격 시스템(100)의 컨텐츠 서버(110)에 전송할 수 있다.The
통합 제어부(230)는 무인 비행체(220)를 통해 오프라인 사격기(210)의 명중 여부를 전달받으면 명중 카운트를 오프라인 사격기(210)의 번호에 카운팅하게 하며, 동시에 스피커(2020)에 명중 신호를 전송하여 오프라인 사격기(210)가 인식하도록 스피커(2020)를 통해 알려줄 수 있다.When the
도 7을 참고하면, 통합 제어부(230)는 유/무선 송수신기를 통해 정보를 송수신하기 위한 송수신 모듈(232), 수신된 정보를 카운팅하여 제공하는 카운트 제공부(234), 오프라인 사격기(210)에 대한 정보를 습득하는 사격기 인식 모듈(236), 무인 비행체(220)를 타격하여 얻은 정보를 기반으로 사격 레저에 따른 점수를 산출하는 점수 산출부(238) 및 무인 비행체(220)를 제어하는 비행 제어부(239)를 포함한다. 통합 제어부(230)는 도 7에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.Referring to FIG. 7, the
통합 제어부(230)는 송수신 모듈(232)을 통해 온라인 사격 시스템(100)의 컨텐츠 서버(110)와 정보를 송수신할 수 있다.The
도 8은 본 발명의 일 실시예에 따른 무인 비행체의 구조를 나타내는 도면이다.Figure 8 is a diagram showing the structure of an unmanned flying vehicle according to an embodiment of the present invention.
도 8를 참고하면, 오프라인 표적이 되는 무인 비행체(220)의 구조 및 동작 예를 확인할 수 있다. 또한, 오프라인 표적이 되는 무인 비행체(220)는 온라인 표적과 같은 형상 및 이동이 이루어지도록 온라인 사격 시스템(100)의 컨텐츠 서버(110)와 통신을 수행할 수 있으며, 통합 제어부(230)를 통해 컨텐츠 서버(110)와 통신이 이루어질 수 있다.Referring to FIG. 8, an example of the structure and operation of the
무인 비행체(220)는 오프라인 사격기(210)에서 발사된 적외선이 오프라인 표적(226)에 명중하면 이에 대한 오프라인 사격기(210)의 정보를 무인 비행체(220)에 전달할 수 있다. 구체적으로, 기 설정된 오프라인 사격기(210)와의 매칭 정보를 무선통신(예를 들어, BLE, Wi-fi 등)을 통하여 유/무선 송수신기를 통해 전송할 수 있다.When the infrared rays emitted from the
본 발명의 일 실시예에 따르면, 사격기 정보는 RGB, ID 등을 포함할 수 있으며, 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the shooting machine information may include RGB, ID, etc., but is not necessarily limited thereto.
무인 비행체(220)는 유/무선 송수신기를 통해 수신 정보를 통합 제어부(230) 및 스피커(2022)에 전달하고, 각 시스템의 기능을 요구할 수 있다.The
무인 비행체(220)의 상태 정보는 무선 송신기를 통하여 무인 비행체 관제부(2024)에 매 주기별로 전송할 수 있으며, 이를 통해 무인 비행체(220)를 관리 할 수 있다.Status information of the
본 발명의 일 실시예에 따르면, 무인 비행체(220)의 오프라인 표적(226)은 일부가 전자석으로 구현될 수 있다. 오프라인 표적(226)은 오프라인 사격기(210)를 통해 타격되어 타격 신호가 생성되면, 오프라인 표적(226)에 제공되는 전류를 제한하여 표적의 일부로 구현되는 전자석이 분리되도록 구현되어 부셔지는 것으로 보이도록 할 수 있다. 구체적으로, 오프라인 표적(226)은 자석 및 전자석으로 구현되는 분리된 복수의 조각이 조립되는 형태로 구현되고, 각각의 자석 및 전자석은 서로 맞닿는 부분의 적어도 일측에 연결부를 통해 연결되어 타격 신호에 의해 전자석이 분리되더라도 자석과 일정 거리 이상 떨어지지 않도록 구현될 수 있으며, 분리된 후 기 설정된 시간이 경과된 후, 전류가 제공되어 자석 및 전자석이 다시 붙을 수 있다. 또는 자석 및 전자석이 분리된 후 기 설정된 시간이 경과된 후, 연결부를 권취한 후 전류가 흐르도록 하여 자석 및 전자석이 다시 붙도록 할 수 있다. 이를 통해 기존의 표적을 타격하여 부수는 것과 같은 흥미를 제공할 수 있다. 이때, 오프라인 표적(226)의 형상은 온라인 사격 시스템(100)에서 제공하는 온라인 표적과 같은 형상으로 구현되어 타격했을 경우의 형태도 같은 형상으로 구현되도록 형성될 수 있으며, 반드시 이에 한정되는 것은 아니다.According to one embodiment of the present invention, the
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and various modifications, changes, and substitutions can be made by those skilled in the art without departing from the essential characteristics of the present invention. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments and the attached drawings. . The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.
Claims (12)
Applications Claiming Priority (12)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220141669 | 2022-10-28 | ||
KR10-2022-0141669 | 2022-10-28 | ||
KR20220162966 | 2022-11-29 | ||
KR20220162967 | 2022-11-29 | ||
KR10-2022-0162967 | 2022-11-29 | ||
KR10-2022-0162966 | 2022-11-29 | ||
KR10-2023-0040744 | 2023-03-28 | ||
KR10-2023-0040743 | 2023-03-28 | ||
KR1020230040744A KR20240081281A (en) | 2022-11-29 | 2023-03-28 | Online shooting system using unmanned aerial vehicle |
KR1020230040743A KR20240060412A (en) | 2022-10-28 | 2023-03-28 | Shooting leisure system using unmanned aerial vehicles |
KR1020230040745A KR20240080079A (en) | 2022-11-29 | 2023-03-28 | Online and offline shooting linkage system through linkage |
KR10-2023-0040745 | 2023-03-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024090689A1 true WO2024090689A1 (en) | 2024-05-02 |
Family
ID=90831176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2023/004212 WO2024090689A1 (en) | 2022-10-28 | 2023-03-29 | Online shooting system using unmanned aerial vehicle |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024090689A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130121699A (en) * | 2010-05-28 | 2013-11-06 | 테트리스 온라인, 인코포레이티드 | Interactive hybrid asynchronous computer game infrastructure |
KR101642956B1 (en) * | 2015-10-16 | 2016-07-26 | 주식회사 인퍼니 | A system for shooting simulation game |
KR20200083157A (en) * | 2019-07-17 | 2020-07-08 | 주식회사 데이터몬스터즈 | A method and apparatus for recommending a game based on a real space to a user |
KR20200143842A (en) * | 2019-06-17 | 2020-12-28 | 넷마블 주식회사 | Method to analyze scene |
KR20210106139A (en) * | 2020-02-20 | 2021-08-30 | 오상민 | Drone-based survival shooting game provision system |
-
2023
- 2023-03-29 WO PCT/KR2023/004212 patent/WO2024090689A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130121699A (en) * | 2010-05-28 | 2013-11-06 | 테트리스 온라인, 인코포레이티드 | Interactive hybrid asynchronous computer game infrastructure |
KR101642956B1 (en) * | 2015-10-16 | 2016-07-26 | 주식회사 인퍼니 | A system for shooting simulation game |
KR20200143842A (en) * | 2019-06-17 | 2020-12-28 | 넷마블 주식회사 | Method to analyze scene |
KR20200083157A (en) * | 2019-07-17 | 2020-07-08 | 주식회사 데이터몬스터즈 | A method and apparatus for recommending a game based on a real space to a user |
KR20210106139A (en) * | 2020-02-20 | 2021-08-30 | 오상민 | Drone-based survival shooting game provision system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8850943B2 (en) | Management system of several snipers | |
US20210063120A1 (en) | System and method for active shooter defense | |
KR20200079180A (en) | Planting Status and Vegetation Index Analysis System using Clustered Drones Platform | |
US10309751B2 (en) | Small arms shooting simulation system | |
WO2018066744A1 (en) | System and method for controlling multidrone | |
WO2011122762A2 (en) | Firearm simulation system simulating leading fire, laser-emitting device, and target detection device | |
AU2021200196A1 (en) | A networked battle system with heads up display | |
CN109774940A (en) | It is a kind of to examine the integrated synthesis avionics system for beating unmanned plane | |
CN107140209A (en) | A kind of unmanned plane targeted system | |
CN107883820A (en) | A kind of air defense training target system | |
CN113848992B (en) | Target detection positioning and automatic shooting system based on unmanned aerial vehicle and armed striking robot | |
US20230140441A1 (en) | Target acquisition system for an indirect-fire weapon | |
CN110290846B (en) | Virtual battle processing method, server and movable platform | |
CN111486746B (en) | A grenade launch virtual training platform and training method | |
US11359887B1 (en) | System and method of marksmanship training utilizing an optical system | |
CN110267004A (en) | A kind of small drone detection monitoring system | |
WO2024090689A1 (en) | Online shooting system using unmanned aerial vehicle | |
WO2023106704A1 (en) | Smart divot repair system and method | |
RU2759534C1 (en) | Complex of intelligence and firing of targets based on unmanned aircraft | |
KR20240080079A (en) | Online and offline shooting linkage system through linkage | |
CN117588993A (en) | Intelligent nail-shooting training system for vehicle | |
WO2018092947A1 (en) | Smart robot game system | |
AU2018274474B2 (en) | Simulator and method for simulating a deployment of a missile | |
WO2022119031A1 (en) | Experiential game support system | |
KR20240060412A (en) | Shooting leisure system using unmanned aerial vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23882799 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2501002580 Country of ref document: TH |
|
NENP | Non-entry into the national phase |
Ref country code: DE |