[go: up one dir, main page]

KR101720097B1 - User device locating method and apparatus for the same - Google Patents

User device locating method and apparatus for the same Download PDF

Info

Publication number
KR101720097B1
KR101720097B1 KR1020130082188A KR20130082188A KR101720097B1 KR 101720097 B1 KR101720097 B1 KR 101720097B1 KR 1020130082188 A KR1020130082188 A KR 1020130082188A KR 20130082188 A KR20130082188 A KR 20130082188A KR 101720097 B1 KR101720097 B1 KR 101720097B1
Authority
KR
South Korea
Prior art keywords
user equipment
marker
information
delete delete
planes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020130082188A
Other languages
Korean (ko)
Other versions
KR20150008295A (en
Inventor
안철
김현
이영재
김세희
정연식
강희찬
이호
안정화
김덕광
김연규
Original Assignee
한국교통연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국교통연구원 filed Critical 한국교통연구원
Priority to KR1020130082188A priority Critical patent/KR101720097B1/en
Publication of KR20150008295A publication Critical patent/KR20150008295A/en
Application granted granted Critical
Publication of KR101720097B1 publication Critical patent/KR101720097B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Navigation (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

사용자 기기에서, 좌표정보를 포함하는 이미지를 포함하는 한 개 이상의 마커를 이용하여 상기 사용자 기기의 위치를 측정하는 방법으로서, 상기 사용자 기기가 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 상기 좌표정보를 기초로 상기 사용자 기기의 위치를 측정하는 단계를 포함하는, 사용자 기기의 측위방법이 공개된다.A method for measuring a position of a user equipment using one or more markers including an image including coordinate information in a user equipment, the method comprising the steps of: And a step of measuring the position of the user equipment based on the coordinate information.

Description

사용자 기기의 측위방법{User device locating method and apparatus for the same}[0001] The present invention relates to a positioning method for a user equipment,

본 발명은 사용자 기기에서, 좌표에 관한 이미지 정보를 포함하는 한 개 이상의 마커를 이용하여 상기 사용자 기기의 위치를 측정하는 방법 및 이를 구현하기 위한 장치에 관한 것이다.The present invention relates to a method of measuring a position of a user equipment using one or more markers including image information on coordinates in a user equipment and an apparatus for implementing the same.

실내 위치확인 시스템(Indoor Positioning System, IPS)은 WLAN, 블루투스(Bluetooth), 와이파이(WiFi), RFID, 초음파, 적외선 등을 이용하여 건물 내부에 있는 사용자의 위치를 파악하고, 이를 스마트폰을 포함한 스마트 디바이스에 내장된 지도와 대조해 물건이나 장소의 위치를 쉽게 찾아주는 시스템이다. The Indoor Positioning System (IPS) identifies the user's location inside the building using WLAN, Bluetooth, WiFi, RFID, ultrasound, infrared, etc., It is a system that easily finds the location of an object or place against the map embedded in the device.

블루투스를 이용한 실내측위방법은 일반적으로 수신신호강도(Received Signal Strength Indicator, RSSI)를 이용하여 계산된 블루투스간 거리정보를 이용하여 위치를 알고 있는 블루투스 장치를 기준점으로 생각하고 삼각측량을 이용하여 위치를 계산한다. 블루투스를 이용한 실내측위방법의 장점은, 블루투스 칩셋 대량 생산으로 인해 인프라 설치비용이 저렴하면, 다수의 센서 배치를 통해 서비스 커버리지를 줄이고 이로 인해 위치 정확도를 향상시킬 수 있다. 그러나 송수신 지연이 커서 동적 환경에서 위치정확도가 떨어지며 저전력, 저속으로 설계되어 연속 측위가 불가능하다.In the indoor positioning method using Bluetooth, a Bluetooth device that knows the position is generally regarded as a reference point by using the distance information between Bluetooth calculated using the Received Signal Strength Indicator (RSSI), and the position is measured using triangulation . The advantage of indoor positioning using Bluetooth is that if the infrastructure installation cost is low due to mass production of the Bluetooth chipset, the service coverage can be reduced through multiple sensor arrangements, thereby improving the positioning accuracy. However, since the transmission and reception delay is large, the position accuracy is degraded in the dynamic environment and the low power and low speed are designed, and continuous positioning is impossible.

한편, 초음파를 이용한 방식으로는 빠른 RF 신호와 상대적으로 느린 초음파의 전송 속도차를 이용하여 대상체의 위치를 찾아내는 방법이 있다. 이 기술을 이용하면 3차원의 위치인식이 가능하고, 저전력, 저비용의 시스템을 구성할 수 있는 장점을 가진다. 또한, 초음파 기반 실내측위는 위치 정확도가 매우 정확하며 3차원 측위가 가능하다. 그러나 고가의 인프라 설치비용이 필요하고, 송신기 위치 정보를 사전에 알고 있어야 하며, 송신기 배치에 따라 간섭 문제가 발생한다.On the other hand, in a method using an ultrasonic wave, there is a method of finding a position of a target object by using a difference between a transmission speed of a fast RF signal and a relatively slow ultrasonic wave. With this technology, it is possible to realize three-dimensional position recognition, and it is possible to construct a low-power and low-cost system. In addition, the ultrasound-based indoor positioning is highly accurate in position accuracy and is capable of three-dimensional positioning. However, expensive infrastructure installation cost is required, transmitter position information must be known in advance, and interference problems arise depending on the transmitter arrangement.

한편, 적외선을 이용한 방식은 실내 곳곳에 부착된 적외선 센서가 고유 ID 코드를 가진 적외선 장치를 인식하여 위치를 찾아내는 방식이다. 적외선을 이용한 방식은 개발된지 오래된 시스템이므로 많은 상용화 솔루션이 존재한다. 또한, 측위 대상에 위치 계산을 위한 호스트 모바일 컴퓨터(host mobile computer)가 불필요하다는 장점이 있다. 적외선 기반 실내측위는 비교적 시스템의 구성이 간단하고 저렴하나 적외선신호의 특성상 가시거리 내에서만 사용이 가능하고 형광 또는 직접적인 태양광이 비치는 장소에서는 사용하기 어려운 단점이 있다.On the other hand, in the method using infrared rays, an infrared ray sensor attached to various places in the room recognizes an infrared ray device having a unique ID code and finds its position. There are many commercial solutions because infrared is an old system that has been developed. Also, there is an advantage that a host mobile computer for position calculation is unnecessary. Infrared based indoor positioning is relatively simple in structure of the system, but it is inexpensive because it can be used only within the visible range due to the characteristics of the infrared signal, and is difficult to use in a place where fluorescent or direct sunlight is reflected.

이하 RFID를 이용한 방식에 대해 설명한다. RFID는 크게 태그(tag)와 리더(reader)로 분류되며 리더는 다시 송신기(transmitter)와 수신기(receiver)/디코더(decoder)로 구성된다. 리더 내부의 송신기가 활성화(activation) 신호를 송출하면 리더 근방의 태그는 자신에게 할당된 고유 ID를 회신한다. 리더는 이를 읽어서 어떠한 태그들이 자신의 근방에 있는지를 판단한다. RFID 리더가 인지할 수 있는 감지거리는 약 2.5m 정도이므로 특정한 위치에 대한 근접 위치 센서(proximity location sensor)로 활용 가능하며, 한정된 실내 공간에 균등하게 배치할 경우 측위 시스템으로도 활용 가능하다. RFID 기반 실내측위의 장점은 근접의 조건을 만족하면 태그가 빠르게 움직여도 감지할 수 있으며, 태그에 읽기/쓰기 기능을 부가하여 정보 보조 기능을 추가할 수 있다. 또한, 수동형 태그의 경우 가격이 저렴하고 능동형 태그는 작은 안테나를 부착하여 신호 도달 거리를 늘릴 수 있다. 그러나 통신망에 의하여 수신정보가 공유되는 상황이 고려되지 않으며 신호도달거리가 2~3m 정도로 짧다는 단점이 있다. 또한, 높은 밀도 내에서 리더를 설치해야 한다.Hereinafter, a method using RFID will be described. RFID is largely classified into a tag and a reader, and the reader is composed of a transmitter and a receiver / decoder. When the transmitter in the reader sends an activation signal, the tag near the reader returns a unique ID assigned to it. The reader reads this to determine which tags are in their vicinity. Since the detection distance of the RFID reader is about 2.5 m, it can be used as a proximity location sensor for a specific location, and can be used as a positioning system when it is evenly distributed in a limited indoor space. The advantage of RFID based indoor positioning is that it can be detected even if the tag is moved quickly if the proximity condition is satisfied and the information assist function can be added by adding the read / write function to the tag. In addition, the price of passive tag is low and the active tag can increase the signal reach distance by attaching a small antenna. However, there is a disadvantage that the situation where the received information is shared by the communication network is not taken into account and the signal reaching distance is as short as 2 to 3 m. Also, the reader must be installed within a high density.

본 발명에서는 실내 측위 기술을 제공하고자 한다.In the present invention, an indoor positioning technique is provided.

본 발명의 일 관점에 따른 사용자기기의 측위방법은, 사용자기기가 촬영한 촬영이미지에 포함된 한 개 이상의 마커가 제공하는 마커정보와 상기 마커정보에 포함된 좌표정보가 매핑된 지도를 기초로 상기 사용자기기의 위치를 측정하는 단계를 포함한다.
이때, 상기 마커정보는 방위정보를 더 포함하며, 상기 좌표정보와 상기 방위정보를 기초로 상기 사용자기기의 위치를 측정하는 단계를 포함할 수 있다.
이때, 상기 마커정보는 방위정보를 더 포함하며, 상기 측정하는 단계는, 상기 촬영이미지 내에 포함된 제1 마커의 상기 촬영이미지 내에서의 위치 및 자세를 더 이용하여 상기 사용자기기의 위치를 계산하는 단계를 포함할 수 있다.
이때, 상기 마커정보는 방위정보를 더 포함하며, 상기 한 개 이상의 마커 각각은 서로 다른 평면에 속해 있는 복수 개의 면을 포함하는 입체적인 형상을 하고 있으며, 상기 방위에 관한 정보 또는 상기 좌표에 관한 정보는 상기 복수 개의 면에 표시되어 있는 것을 특징으로 할 수 있다.
본 발명의 일 관점에 따른 컴퓨터로 읽을 수 있는 매체는, 사용자기기에, 상기 사용자기기가 촬영한 촬영이미지에 포함된 한 개 이상의 마커가 제공하는 마커정보와 상기 마커정보에 포함된 좌표정보가 매핑된 지도를 기초로 상기 사용자기기의 위치를 측정하는 단계를 실행하도록 되어 있는 프로그램을 포함한다.
이때, 상기 마커정보는 방위정보를 더 포함하며, 상기 프로그램은, 상기 사용자기기에, 상기 사용자기기가 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커에 포함된 상기 방위정보를 기초로, 상기 사용자기기가 향하는 방향을 측정하는 단계를 더 실행하도록 되어 있을 수 있다.
이때, 상기 사용자기기는 자세 센서를 포함하며, 상기 프로그램은, 상기 사용자기기에, 상기 자세 센서에 의해 측정된 상기 사용자기기의 자세를 이용하여 상기 측정된 상기 사용자기기의 위치를 보정하는 단계를 더 실행하도록 되어 있을 수 있다.
또한, 상기 프로그램은, 상기 사용자기기에, 상기 사용자기기의 위치 및 상기 사용자기기가 향하는 방향을 기초로, 상기 사용자기기의 위치에서 상기 사용자기기가 향하는 방향의 조감도를 상기 사용자기기의 스크린을 통해 출력하는 단계를 더 실행하도록 되어 있으며, 상기 조감도는 미리 제공된 것일 수 있다.
본 발명의 일 관점에 따른 마커는, 측위를 위해 사용되는 마커로서, 서로 다른 평면에 속해 있는 복수 개의 면을 포함하는 복수 개의 표면을 갖는 입체적인 형상을 하고 있으며, 상기 복수 개의 표면 각각으로부터, 상기 마커가 설치된 장소의 좌표정보 및 상기 각각의 면이 향하는 방향에 관한 방위 정보 중 하나 이상을 포함하는 마커정보가 제공되는 것을 특징으로 한다.
본 발명의 일 관점에 따른 사용자기기는, 촬영부 및 처리부를 포함하는 사용자기기로서, 상기 처리부는, 상기 촬영부를 이용하여 촬영한 촬영이미지에 포함된 한 개 이상의 마커가 제공하는 마커정보와 상기 마커정보에 포함된 좌표정보가 매핑된 지도를 기초로 상기 사용자기기의 위치를 측정하도록 되어 있다.
According to an aspect of the present invention, there is provided a positioning method of a user equipment, comprising: a step of determining, based on a map on which marker information provided by one or more markers included in a photographed image photographed by a user device and coordinate information included in the marker information is mapped, And measuring the position of the user equipment.
The marker information may further include azimuth information, and the location of the user equipment may be measured based on the coordinate information and the azimuth information.
Here, the marker information may further include orientation information, and the measuring may further include calculating a position of the user device by further using a position and an attitude of the first marker included in the captured image in the captured image Step < / RTI >
In this case, the marker information further includes orientation information, and each of the one or more markers has a three-dimensional shape including a plurality of planes belonging to different planes, and the information on the orientation or the information on the coordinates And is displayed on the plurality of surfaces.
According to an aspect of the present invention, there is provided a computer-readable medium for causing a user device to perform a mapping process, wherein marker information provided by one or more markers included in a photographed image taken by the user device, and coordinate information included in the marker information are mapped And measuring the position of the user equipment based on the map.
In this case, the marker information may further include orientation information, and the program may further cause the user device to display, based on the orientation information included in the one or more markers included in the photographed image photographed by the user device, And a step of measuring a direction in which the device is facing.
In this case, the user equipment includes an attitude sensor, and the program may further include the step of correcting the measured position of the user equipment using the attitude of the user equipment measured by the attitude sensor, to the user equipment May be configured to execute.
The program may further cause the user device to output a bird's-eye view of the direction of the user device from the position of the user device on the screen of the user device based on the position of the user device and the direction toward the user device , And the bird's-eye view may be provided in advance.
A marker according to one aspect of the present invention is a marker used for positioning, and has a three-dimensional shape having a plurality of surfaces including a plurality of surfaces belonging to different planes, and from each of the plurality of surfaces, Wherein the marker information includes at least one of coordinate information of a place where the first surface is located and orientation information about a direction that the second surface faces.
A user apparatus according to one aspect of the present invention is a user apparatus including a photographing section and a processing section, the processing section comprising: marker information provided by one or more markers included in a photographed image photographed using the photographing section; The position of the user equipment is measured based on a map to which the coordinate information included in the information is mapped.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

본 발명에 따르면 실내에서 위치를 효과적으로 측위할 수 있다.According to the present invention, the position can be effectively positioned in the room.

도 1은 본 발명의 일 실시예에 따른 사용자 기기를 나타낸 것이다.
도 2는 본 발명의 일 실시예에 따른 사용자 기기의 측위방법을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 사용자 기기의 측위방법을 설명하기 위한 도면이다.
도 4a는 사용자 기기가 마커의 바로 아래에 위치하는 상황에서, 촬상면이 수평면에 평행한 자세를 나타낸 것이며, 도 4b는 사용자 기기가 마커의 바로 아래에 위치하는 상황에서, 촬상면이 수평면에 대해 기울어진 자세를 나타낸 것이다.
도 5는 본 발명의 일 실시예에 따른 3차원 바코드를 나타낸 것이다.
도 6은 본 발명의 일 실시예에 따른 3차원 바코드가 천장에 부착되어 있을 때, 이를 스마트폰을 찍은 과정을 설명하기 위한 것이다.
도 7은 본 발명의 일 실시예에 따라, 자이로센서를 스마트폰(사용자 기기)의 기울어진 방향과 각도를 검출하고, 그 검출 결과에 따라 카메라에 찍힌 화면을 통해 분석된 사용자 기기의 위치를 보정하는 방법을 설명하기 위한 것이다.
도 8은 입체 2차원 바코드(3차원 바코드)를 이용한 실내측위 시스템의 설치 절차의 예를 나타낸 것이다.
도 9는 입체 2차원 바코드 실내측위 시스템 중 MAP 부분을 자세히 설명하기 위한 것이다.
도 10은 입체 2차원 바코드 실내측위 시스템 중 좌표인식 방법을 설명하기 위한 것이다.
도 11은 본 발명의 일 실시예에 따른, 입체 2차원 바코드 실내측위 시스템에서 좌표를 인식하는 방법을 설명하기 위한 것이다.
도 12는 본 발명의 일 실시예에 의해 얻은 실내측위 정보를 이용하여 길찾기 기능을 제공하는 어플리케이션 프로그램의 예를 나타낸 것이다.
도 13은 본 발명의 일 실시예에 의해 얻은 실내측위 정보를 이용하여 친구찾기 기능을 제공하는 어플리케이션 프로그램의 예를 나타낸 것이다.
도 14는 본 발명의 일 실시예에 따라 방위정보가 기록된 마커를 동일 장소에서 스마트폰을 이러저리 기울여 가면서 찍은 3개의 이미지를 나타낸 것이다.
도 15는 본 발명의 일 실시예에 따라 방위정보와 좌표정보가 기록된 마커를 동일 장소에서 스마트폰을 이러저리 기울여 가면서 찍은 3개의 이미지를 나타낸 것이다.
1 shows a user equipment according to an embodiment of the present invention.
2 is a diagram for explaining a positioning method of a user equipment according to an embodiment of the present invention.
3 is a diagram for explaining a positioning method of a user equipment according to an embodiment of the present invention.
FIG. 4A shows a state in which the imaging plane is parallel to a horizontal plane in a situation where the user equipment is located immediately below the marker, and FIG. 4B shows a state in which the imaging plane is inclined with respect to the horizontal plane Posture.
FIG. 5 illustrates a three-dimensional barcode according to an embodiment of the present invention.
FIG. 6 illustrates a process of taking a smartphone when a three-dimensional bar code is attached to a ceiling according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating a method of detecting a tilted direction and an angle of a smart phone (user equipment) according to an embodiment of the present invention and correcting the position of the user's device analyzed on the screen, To explain how to do this.
8 shows an example of an installation procedure of an indoor positioning system using a stereoscopic two-dimensional barcode (three-dimensional barcode).
9 is a diagram for explaining the MAP part of the stereoscopic two-dimensional bar code indoor positioning system in detail.
10 is a view for explaining a coordinate recognition method among stereoscopic two-dimensional bar code indoor positioning systems.
11 is a diagram for explaining a method of recognizing coordinates in a stereoscopic two-dimensional bar code indoor positioning system according to an embodiment of the present invention.
FIG. 12 shows an example of an application program for providing a route search function using indoor positioning information obtained by an embodiment of the present invention.
13 shows an example of an application program for providing a friend searching function using indoor positioning information obtained by an embodiment of the present invention.
FIG. 14 is a view showing three images taken while the smartphone is tilted at the same place of the marker in which the orientation information is recorded according to an embodiment of the present invention.
FIG. 15 is a view showing three images taken while the smartphone is being tilted at the same place of the marker in which the orientation information and the coordinate information are recorded according to an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부한 도면을 참고하여 설명한다. 그러나 본 발명은 본 명세서에서 설명하는 실시예에 한정되지 않으며 여러 가지 다른 형태로 구현될 수 있다. 본 명세서에서 사용되는 용어는 실시예의 이해를 돕기 위한 것이며, 본 발명의 범위를 한정하고자 의도된 것이 아니다. 또한, 이하에서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein, but may be implemented in various other forms. The terminology used herein is for the purpose of understanding the embodiments and is not intended to limit the scope of the present invention. Also, the singular forms as used below include plural forms unless the phrases expressly have the opposite meaning.

이하 도 1 내지 도 7b를 참조하여 본 발명의 일 실시예에 따른 사용자 기기의 측위방법에 대해 설명한다.Hereinafter, a positioning method of a user equipment according to an embodiment of the present invention will be described with reference to FIGS. 1 to 7B.

도 1은 본 발명의 일 실시예에 따른 사용자 기기를 나타낸 것이다.
본 발명의 일 실시예에 따른 사용자 기기(100)의 위치를 측정하는 측위방법은, 사용자 기기(100)에서, 좌표정보를 포함하는 이미지를 포함하는 한 개 이상의 마커를 이용하여 상기 사용자 기기의 위치를 측정하는 방법이다. 즉, 상기 마커에는 이미지가 인쇄되어 있을 수 있고, 이 이미지에는 좌표정보가 포함되어 있을 수 있다. 후술하겠지만, 상기 마커는 실체를 가진 물건으로서 사람의 키보다 높은 곳에 부착되거나 매달려 있는 임의의 형상의 물체일 수 있다.
1 shows a user equipment according to an embodiment of the present invention.
The positioning method for measuring the position of the user equipment 100 according to an embodiment of the present invention is a method for measuring the position of the user equipment 100 by using one or more markers including an image including coordinate information, . That is, an image may be printed on the marker, and the image may include coordinate information. As will be described later, the marker may be any object with an entity attached or suspended above the height of a person.

이때, 사용자 기기(100)는 스크린(110) 및 카메라(120)를 포함하여 구성될 수 있다. 이때, 사용자 기기(100)가 촬영한 촬영이미지(130)는 카메라(120)를 통해 촬영될 수 있다. 촬영이미지(130)는 스크린(110)을 통해 출력될 수 있으나, 본 발명의 일 실시예에서는 사용자 기기(100) 내부에서만 사용되면 사용자에게 출력되지 않을 수 있다. 카메라(120)를 구성하는 CMOS 또는 CCD와 같은 촬상소자의 촬상면은 스크린(110) 표면과 평행하게 배치될 수 있다. 이때 사용자가 사용자 기기(100)를 들고 스크린(110)을 바라보면서 걸어다니는 상황에서 상기 카메라(120)가 실내의 천장을 촬영하는 상황을 가정하여 설명할 수 있다. 이때, 바람직하게는 카메라(120)의 촬상면이 수평면과 평행한 경우를 가정하여 설명한다.At this time, the user device 100 may include a screen 110 and a camera 120. At this time, the photographed image 130 photographed by the user device 100 may be photographed through the camera 120. The captured image 130 may be output through the screen 110 but may not be output to the user if it is used only within the user device 100 in one embodiment of the present invention. The imaging surface of an imaging element such as a CMOS or a CCD constituting the camera 120 may be disposed in parallel with the surface of the screen 110. [ At this time, it is assumed that the camera 120 photographs the ceiling of the room while the user is walking while looking at the screen 110 while holding the user equipment 100. At this time, it is assumed that the image pickup plane of the camera 120 is parallel to the horizontal plane.

도 2는 본 발명의 일 실시예에 따른 사용자 기기의 측위방법을 설명하기 위한 도면이다.
도 2a 및 도 2b에 도시한 바와 같이, 본 발명의 일 실시예에 따른 사용자 기기(100)의 측위방법은, 사용자 기기(100)가 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커(140~144)가 갖는 상기 좌표정보((4,2), (2,1), (2,4), (8,1), (8,4))를 포함하는 이미지를 기초로 상기 사용자 기기의 위치를 측정하는 단계를 포함한다. 도 2a, 2b에서 붉은 색 점은 촬영된 이미지의 중심으로서, 촬상면이 수평면에 평행인 경우 사용자 기기(100)는 상기 붉은 색 점으로 대표되는 실내 천장의 바로 아래에 위치하는 것으로 판단할 수 있다. 도 2a 나타낸 바와 같이 마커(140)에는 실제로 4,2라는 글자가 적혀 있을 수 있다. 다른 예에서는 숫자가 아닌 바코드 또는 기타 암호화된 이미지가 프린트되어 있을 수 있다. 마커(140)에 프린트된 이미지는 가시광선이 아닌 다른 대역의 광선에 의해 인식되도록 할 수도 있다.
2 is a diagram for explaining a positioning method of a user equipment according to an embodiment of the present invention.
2A and 2B, a positioning method of the user equipment 100 according to an embodiment of the present invention may include positioning the at least one marker 140 to 140 included in a captured image taken by the user equipment 100, (4,2), (2,1), (2,4), (8,1), (8,4)) of the user device . In FIGS. 2A and 2B, the red dot is the center of the photographed image, and when the image sensing plane is parallel to the horizontal plane, it can be determined that the user device 100 is located immediately below the indoor ceiling represented by the red dot. As shown in FIG. 2A, the markers 140 may actually have a letter 4,2. In another example, a non-numeric bar code or other encrypted image may be printed. The image printed on the marker 140 may be recognized by a ray of light other than visible light.

이때, 도 2a에 도시한 바와 같이, 촬영이미지(130)에 한 개의 마커만이 포함되는 경우에는, 사용자 기기(100)는 상기 한 개의 마커 근처에 있다는 것을 알 수 있다. 그리고 상기 한 개의 마커에 포함된 좌표정보는 특정 지도의 좌표에 매핑되어 있을 수 있다. 따라서 사용자 기기(100)가 어디에 있는지를 대략 파악할 수 있다. 즉, 촬영이미지(130)에 한 개의 마커(140)가 갖는 좌표정보(4,2)를 포함하는 이미지가 출력되는 경우, 이를 기초로 사용자 기기의 위치는, 지도상에서 좌표정보(4,2)가 나타내는 위치의 근처에 있다는 것으로 판단할 수 있다. At this time, as shown in FIG. 2A, when only one marker is included in the captured image 130, it can be seen that the user device 100 is near the one marker. The coordinate information included in the one marker may be mapped to the coordinates of the specific map. Thus, it is possible to roughly grasp where the user device 100 is. That is, when an image including coordinate information (4, 2) of one marker 140 is output to the photographed image 130, the position of the user equipment is determined based on the coordinate information 4,2 on the map, It can be judged that it is in the vicinity of the position indicated by?

또한, 도 2b에 도시한 바와 같이, 촬영이미지(130)에 복수 개의 마커(141,142,143,144)가 표시되는 경우에는, 복수 개의 마커가 갖는 각각의 좌표정보의 중심 좌표정보가 나타내는 위치의 근처에 있다는 것으로 판단할 수 있다. 즉, 촬영이미지(130)에 제1 마커(141)의 이미지에 포함되어 있는 제1 좌표정보(2,1), 제2 마커(142)의 이미지에 포함되어 있는 제2 좌표정보(2,4), 제3 마커(143)의 이미지에 포함되어 있는 제3 좌표정보(8,1), 및 제4 마커(144)의 이미지에 포함되어 있는 제4 좌표정보(8,4)가 표시되어 출력되는 경우에는, 사용자 기기(100)의 위치는 지도상에서 상기 제1 내지 제4 좌표정보의 중심좌표가 나타내는 위치의 근처에 있다는 것으로 판단할 수 있다. 이는, 카메라(120)의 촬상면이 수평면과 평행한 경우, 그리고 위 네 개의 마커가 천장에 설치되어 있는 경우에 더 잘 들어맞는다.2B, when a plurality of markers 141, 142, 143, and 144 are displayed on the photographed image 130, it is determined that they are near the position indicated by the coordinate information of the respective coordinate information of the plurality of markers can do. That is, the first coordinate information (2, 1) included in the image of the first marker 141 and the second coordinate information 2, 4 included in the image of the second marker 142 The third coordinate information 8,1 included in the image of the third marker 143 and the fourth coordinate information 8,4 included in the image of the fourth marker 144 are displayed and output , It can be determined that the position of the user equipment 100 is near the position indicated by the center coordinates of the first to fourth coordinate information on the map. This is better if the imaging plane of the camera 120 is parallel to the horizontal plane and if the top four markers are installed on the ceiling.

도 3은 본 발명의 일 실시예에 따른 사용자 기기의 측위방법을 설명하기 위한 도면이다.
도 3a 및 도 3b에 도시한 바와 같이, 본 발명의 일 실시예에 따른 사용자 기기의 측위방법에서, 상기 이미지는 방위정보를 더 포함하며, 상기 이미지에 포함된 상기 좌표정보와 상기 방위정보를 기초로 상기 사용자 기기의 위치를 측정하는 단계를 포함한다. 도 3a, 3b에서 붉은 색 점은 촬영된 이미지의 중심으로서, 촬상면이 수평면에 평행인 경우 사용자 기기(100)는 상기 붉은 색 점으로 대표되는 실내 천장의 바로 아래에 위치하는 것으로 판단할 수 있다. 도 3a에 나타낸 마커(140)에는 도면 3a에 나타낸 것과 똑같은 형태와 위치에 따라 4,2라는 글자, 그리고 N/W/S/E라는 영문자가 프린트되어 있을 수 있다. 도 3a는 이러한 마커(140)를 카메라로 찍은 결과를 나타낸 것이다.
3 is a diagram for explaining a positioning method of a user equipment according to an embodiment of the present invention.
As shown in FIGS. 3A and 3B, in the positioning method of the user equipment according to the embodiment of the present invention, the image further includes orientation information, and the coordinate information and the orientation information included in the image And measuring the position of the user equipment. In FIGS. 3A and 3B, the red dot is the center of the photographed image, and when the image sensing plane is parallel to the horizontal plane, it can be determined that the user device 100 is located immediately below the indoor ceiling represented by the red dot. In the marker 140 shown in FIG. 3A, 4,2 and N / W / S / E may be printed according to the same shape and position as shown in FIG. 3A. FIG. 3A shows a result of photographing the marker 140 with a camera.

이때, 도 3a에 도시한 바와 같이, 촬영이미지(130)에 한 개의 마커(140)에 포함되어 있는 이미지는, 좌표정보(4,2)와 방위정보(NWSE)를 포함할 수 있으며, 이를 기초로 사용자 기기(100)의 위치는 좌표정보(4,2)의 약간 남쪽(S)에 위치하고 있다는 것으로 판단할 수 있다.3A, the image included in one marker 140 in the captured image 130 may include coordinate information 4,2 and azimuth information NWSE, It can be determined that the position of the user device 100 is located slightly to the south (S) of the coordinate information (4, 2).

또한, 도 3b에 도시한 바와 같이, 촬영이미지(130)에 복수 개의 마커(141,142,143,144)가 표시되는 경우에는, 4개의 마커(141~144)에 포함된 좌표정보와 방위정보를 이용하여 사용자 기기(100)의 위치를 더 정밀하게 계산할 수 있다. 도 3b를 보면 알 수 있듯이, 붉은색 점으로 지시되는 사용자 기기(100)의 위치는, 마커(141)이 나타내는 좌표(2,1)보다 남동(SE)쪽에 있고, 마커(142)가 나타내는 좌표(2,4)보다 서남(WS)쪽에 있고, 마커(143)가 나타내는 좌표(8,1)보다 북동(NE)쪽에 있고, 마커(144)가 나타내는 좌표(8,4)보다 북서(NW)쪽에 있다. 3B, when a plurality of markers 141, 142, 143, and 144 are displayed on the photographed image 130, the coordinate information and the azimuth information included in the four markers 141 to 144 are used to display the user's device 100) can be calculated more precisely. 3B, the position of the user device 100 indicated by the red dot is located on the southeast side SE than the coordinate (2,1) indicated by the marker 141, (NW) than the coordinates (8, 4) indicated by the marker 144 on the NE side than the coordinates (8, 1) indicated by the marker 143, It is on the side.

도 3c는 또 다른 촬영예를 나타낸다. 도 3c의 마커(140)의 직사각형 바운더리는 촬영이미지(130)의 바운더리 선과 일치하여 정렬되지 않을 수 있다. 이 경우에도 붉은 색 점으로 지시되는 사용자 기기(100)의 위치가, 마커(140)에 표시된 좌표 (3,2)의 남쪽에 위치한다고 볼 수 있다.3C shows another photographing example. The rectangular boundary of the marker 140 in FIG. 3C may not align with the boundary line of the shot image 130. In this case, it can be seen that the position of the user device 100 indicated by the red dot is located to the south of the coordinates (3, 2) displayed on the marker 140. [

이때, 상기 측정하는 단계는, 상기 촬영이미지 내에 포함된 제1 마커의 상기 촬영이미지 내에서의 위치 및 자세를 기초로 상기 사용자 기기의 위치를 계산하는 단계를 포함한다. 또한, 상기 사용자 기기는 자세 센서(ex: 자이로 센서)를 포함하며, 상기 측정하는 단계는 상기 자세 센서에 의해 측정된 상기 사용자 기기의 자세를 기초로 상기 측정된 상기 사용자 기기의 위치를 보정하는 단계를 포함한다. 여기서 자세라 함은, 상기 촬상면이 수평방향에 대하여 동서남북의 어느 방향으로 어느정도 기울어져 있는지에 의해 정의될 수 있다. 도 4a와 도 4b는 사용자 기기(100)의 자세 중 두 가지 경우를 나타낸 것이다. At this time, the measuring step includes calculating a position of the user device based on the position and the posture of the first marker included in the shot image in the shot image. In addition, the user equipment may include an attitude sensor (ex: gyro sensor), and the measuring may include correcting the measured position of the user equipment based on the attitude of the user equipment measured by the attitude sensor . Here, the posture can be defined by how much the imaging plane is inclined in the direction of the north, south, east, and west with respect to the horizontal direction. FIGS. 4A and 4B show two cases of the posture of the user device 100. FIG.

도 4a는 사용자 기기(100)가 마커(140)의 바로 아래에 위치하는 상황에서, 촬상면이 수평면에 평행한 자세를 나타낸다. 이때, 촬상면에는 천장의 영역(P50)이 찍히게 되고, 마커(140)는 촬영이미지(130)의 정중앙에 위치하게 된다. 이때에는 사용자 기기(100)의 위치를 나타내는 붉은 색 점이 촬영이미지(130)에 포함된 마커(140)와 일치하므로, 사용자 기기(100)의 위치를 정확히 측정할 수 있다.4A shows a state in which the imaging plane is parallel to the horizontal plane in a situation where the user device 100 is positioned directly below the marker 140. [ At this time, a ceiling area P50 is imaged on the imaging surface, and the marker 140 is positioned in the center of the captured image 130. [ At this time, since the red dot indicating the position of the user device 100 coincides with the marker 140 included in the captured image 130, the position of the user device 100 can be accurately measured.

도 4b는 사용자 기기(100)가 마커(140)의 바로 아래에 위치하는 상황에서, 촬상면이 수평면에 대해 기울어진 자세를 나타낸다. 이때, 촬상면은 천장의 영역(P51)이 찍히게 되고, 마커(140)는 촬영 이미지(130)의 정중앙에서 벗어난 곳에 위치하게 된다. 이 경우 사용자 기기(100)는 마커(140)가 나타내는 좌표 (7,2)에서 약간 남동(SE)쪽에 위치하는 것으로 판단될 수 있는데, 이는 잘못된 결과이다. 이러한 결과는 사용자 기기(100)에 포함된 자세 센서로부터 사용자 기기(100)의 자세 정보를 받아들여 보정하는 단계를 거침으로써 해결될 수 있다.4B shows a state in which the imaging surface is tilted with respect to the horizontal plane in a situation where the user device 100 is positioned directly below the marker 140. [ At this time, the ceiling area P51 is imaged on the image sensing plane, and the marker 140 is positioned outside the center of the captured image 130. [ In this case, it can be judged that the user device 100 is positioned slightly on the SE side from the coordinates 7,2 indicated by the marker 140, which is a wrong result. This result can be solved by receiving the posture information of the user device 100 from the posture sensor included in the user device 100 and correcting it.

이때, 본 발명의 일 실시예에 따른 사용자 기기의 측위방법은, 상기 측정한 사용자 기기의 위치를 지도상에 표시하여 출력하는 단계를 더 포함한다. 이때, 상기 자세 센서는, 자이로센서를 통해 구현될 수 있다. 이때 지도의 곳곳에는 상술한 마커들에 표시된 좌표정보가 대응될 수 있다. 이때, 지도와 상기 사용자 기기의 상기 지도상에서의 위치가 표시되며, 촬상면에 맺힌 천장의 이미지는 따로 출력되지 않을 수 있다.In this case, the positioning method of the user equipment according to an embodiment of the present invention further includes the step of displaying and outputting the measured position of the user equipment on a map. At this time, the attitude sensor can be implemented through a gyro sensor. At this time, coordinate information indicated on the markers described above may be corresponded in some places of the map. At this time, the map and the position of the user device on the map are displayed, and the image of the ceiling formed on the imaging surface may not be output separately.

또한, 본 발명의 일 실시예에 따른 사용자 기기의 측위방법은, 상기 사용자 기기가 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 상기 이미지의 좌표정보를 기초로, 상기 사용자 기기가 향하는 방향을 측정하는 단계를 더 포함한다. 즉, 상기 사용자 기기의 위쪽 측면이 향하는 방향이 어디인지를 알 수 있다.According to another aspect of the present invention, there is provided a positioning method for a user equipment, the method comprising the steps of: determining, based on coordinate information of the image included in the at least one marker included in the captured image photographed by the user equipment, . That is, it is possible to know the direction in which the upper side of the user equipment faces.

또한, 상기 제1 마커의 상기 촬영이미지 내에서의 위치 및 자세를 기초로 상기 사용자 기기가 향하는 방향을 측정하는 단계를 더 포함한다. 이때, 본 발명의 일 실시예에 따른 사용자 기기의 측위방법은, 상기 사용자 기기의 위치 및 상기 사용자 기기가 향하는 방향을 기초로 상기 사용자 기기의 위치에서 상기 사용자 기기가 향하는 방향의 조감도를 출력하는 단계를 더 포함한다. 이때, 상기 조감도는 미리 제공된 것인 것을 특징으로 한다. 여기서 조감도라 함은, 사람이 상기 사용자 기기가 위치한 자리에 서서 상기 사용자 기기의 위쪽 측면이 향하는 방향을 자연스럽게 바라보았을 때에 볼 수 있는 이미지를 뜻한다.The method may further include the step of measuring a direction of the user device based on the position and the posture of the first marker in the shot image. At this time, the positioning method of the user equipment according to the embodiment of the present invention may include the step of outputting the bird's-eye view of the direction of the user equipment from the position of the user equipment based on the position of the user equipment and the direction that the user equipment faces . In this case, the bird's-eye view is provided in advance. Here, the bird's-eye view refers to an image that can be seen when a person is naturally looking at the direction of the upper side of the user device while the user device is located.

이때, 본 발명의 일 실시예에서, 상기 마커는 서로 다른 평면에 속해 있는 4개의 면을 갖는 입체적인 형상을 하고 있으며, 상기 방위에 관한 정보 및 상기 좌표에 관한 정보는 상기 4개의 면에 표시되어 있는 것을 특징으로 한다. 이때, 상기 마커는 상술한 실시예에 한정되지 않으며 다양한 형태로 구현될 수 있다. 예컨대, 바코드 형태, 도형, 숫자, 문자 등과 같은 시각정보를 제공할 수 있는 형태로 구현될 수 있다.At this time, in one embodiment of the present invention, the marker has a three-dimensional shape having four faces belonging to different planes, and the information about the orientation and the information about the coordinates are displayed on the four faces . At this time, the marker is not limited to the above-described embodiment and can be implemented in various forms. For example, it can be implemented in a form capable of providing visual information such as a barcode form, a figure, a number, a character, and the like.

여기서, 서로 다른 평면이 존재한다는 것은 수평면에 평행하지 않은 평면이 존재한다는 것을 의미한다. 이렇게 수평면에 평행하지 않은 평면에 해당 평면이 향하는 방위정보를 기록하는 경우, 이 방위정보는 특정위치에서는 찍히지 않을 수 있다.Here, the existence of different planes means that there is a plane which is not parallel to the horizontal plane. In the case of recording orientation information such that the plane is directed to a plane that is not parallel to the horizontal plane, this orientation information may not be taken at a specific position.

또한, 본 발명의 일 실시예에서, 상기 이미지는, 예컨대, 가시광선, 적외선, 자외선 등을 통해 검출할 수 있으며, 반드시 육안으로 관찰될 필요는 없다.Further, in one embodiment of the present invention, the image can be detected through, for example, visible light, infrared light, ultraviolet light, or the like, and is not necessarily observed with the naked eye.

본 발명의 다른 실시예에 따른 사용자 기기의 위치를 측정하도록 하는 프로그램에 대해 설명한다.A program for measuring the position of the user equipment according to another embodiment of the present invention will be described.

본 발명의 다른 실시예에 따른 사용자 기기의 위치를 측정하도록 하는 프로그램은 좌표에 관한 이미지 정보를 포함하는 한 개 이상의 마커를 이용하여 사용자 기기의 위치를 측정하도록 되어 있다. 이때, 사용자 기기의 위치를 측정하도록 하는 프로그램은, 상기 사용자 기기에, 상기 사용자 기기가 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 좌표에 관한 이미지 정보를 기초로 상기 사용자 기기의 위치를 측정하는 단계를 실행하도록 되어 있는 프로그램을 포함하는 컴퓨터로 읽을 수 있는 매체이다. The program for measuring the position of the user equipment according to another embodiment of the present invention is configured to measure the position of the user equipment using one or more markers including image information about the coordinates. At this time, the program for measuring the position of the user equipment may further include a step of setting the position of the user equipment on the basis of the image information about the coordinates of the one or more markers included in the shot image taken by the user equipment Readable medium that includes a program that is configured to perform a measurement step.

이때, 상기 이미지 정보는 방위에 관한 정보를 더 포함하며, 상기 프로그램은, 상기 사용자 기기에, 상기 사용자 기기가 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 좌표 및 방위에 관한 이미지 정보를 기초로 상기 사용자 기기의 위치를 측정하는 단계를 실행하도록 되어 있다. 또한, 상기 이미지 정보는 방위에 관한 정보를 더 포함하며, 상기 프로그램은, 상기 사용자 기기에, 상기 측정하는 단계에서, 상기 촬영이미지 내에 포함된 제1 마커의 상기 촬영이미지 내에서의 위치 및 자세를 기초로 상기 사용자 기기의 위치를 계산하는 단계를 실행하도록 되어 있다.In this case, the image information may further include orientation information, and the program may cause the user device to display image information on coordinates and orientation of the one or more markers included in the captured image captured by the user device And a step of measuring the position of the user equipment based on the result of the measurement. In addition, the image information may further include information on orientation, and the program may cause the user device to determine, in the measuring step, a position and a posture of the first marker included in the captured image, And calculating a position of the user equipment based on the position information.

이때, 상기 프로그램은, 상기 사용자 기기에, 상기 사용자 기기가 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 좌표에 관한 이미지 정보를 기초로, 상기 사용자 기기가 향하는 방향을 측정하는 단계를 더 실행하도록 되어 있다. 또한, 상기 프로그램은, 상기 사용자 기기에, 상기 제1 마커의 상기 촬영이미지 내에서의 위치 및 자세를 기초로 상기 사용자 기기가 향하는 방향을 측정하는 단계를 더 실행하도록 되어 있다.Here, the program may further include the step of measuring, by the user equipment, a direction that the user equipment faces, based on image information about coordinates of the one or more markers included in the shot image taken by the user equipment . The program further causes the user device to perform a step of measuring a direction in which the user device faces the first marker based on the position and posture of the first marker in the captured image.

이하 본 발명의 또 다른 실시예에 따른 사용자 기기에 대해 설명한다.Hereinafter, a user equipment according to another embodiment of the present invention will be described.

본 발명의 또 다른 실시예에 따른 사용자 기기는, 좌표에 관한 이미지 정보를 포함하는 한 개 이상의 마커를 이용하여 위치를 측정하는 기기로서, 촬영부 및 처리부를 포함한다. 이때, 상기 처리부는, 상기 촬영부를 이용하여 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 좌표에 관한 이미지 정보를 기초로 상기 사용자 기기의 위치를 측정하도록 되어 있다. 이때, 상기 이미지 정보는 방위에 관한 정보를 더 포함하며, 상기 처리부는, 상기 촬영부를 이용하여 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 좌표 및 방위에 관한 이미지 정보를 기초로 상기 사용자 기기의 위치를 측정하도록 되어 있다. 또한, 상기 처리부는, 상기 촬영부를 이용하여 촬영한 촬영이미지에 포함된 제1 마커의 상기 촬영이미지 내에서의 위치 및 자세를 기초로 상기 사용자 기기의 위치를 계산하도록 되어 있다.A user equipment according to another embodiment of the present invention includes a photographing unit and a processing unit for measuring a position using one or more markers including image information about coordinates. At this time, the processing unit measures the position of the user equipment on the basis of image information about the coordinates of the one or more markers included in the shot image photographed using the photographing unit. The image processing apparatus according to claim 1, wherein the image information further includes information about a bearing, and the processing unit is configured to determine, based on the image information about the coordinates and the orientation of the one or more markers included in the captured image, And to measure the position of the device. The processing unit is configured to calculate the position of the user device based on a position and a posture of the first marker included in the captured image captured using the photographing unit in the captured image.

또한, 본 발명의 또 다른 실시예에 따른 사용자 기기는, 자세 센서를 포함하며, 상기 처리부는, 상기 자세 센서에 의해 측정된 상기 사용자 기기의 자세를 기초로 상기 측정된 상기 사용자 기기의 위치를 보정하도록 되어 있다.
Further, the user equipment according to another embodiment of the present invention includes an attitude sensor, and the processing unit may correct the position of the user equipment measured based on the attitude of the user equipment measured by the attitude sensor .

이하, 실내 네비게이션 장치를 제공하기 위한 발명을 또 다른 관점에서 설명한다. Hereinafter, the invention for providing an indoor navigation device will be described from a different point of view.

실내측위기술은 현재 Wifi, Bt, 초음파, RFID, 조명 등을 이용해서 시도해봤다. 많은 업체들이 스마트폰에 적용이 가능한 Wifi 기술을 기반으로 실내측위 알고리즘을 구현했다. 그러나 자기위치에 대한 인식방법이 현실적으로 어렵다. 출입문의 개폐여부, 사람의 이동여부, 방해구조물의 설치 등에 의해 AP와 스마트폰까지의 신호의 강도가 달라져 스마트폰에서 인식된 거리가 달라지게 된다.Indoor positioning technology is currently being tested using Wifi, Bt, Ultrasound, RFID, and illumination. Many companies have implemented indoor positioning algorithms based on Wifi technology that can be applied to smart phones. However, it is difficult to recognize the self position. The strength of the signal from the AP to the smartphone varies depending on the opening / closing of the door, the movement of the person, the installation of the obstructing structure, and the distance recognized by the smartphone is changed.

이를 보완할 방법으로,As a way to supplement this,

1. 스마트폰의 NFC를 이용한 엑티브태그 방법으로 스마트폰에서 현재의 태깅된 RFID 장치의 신호를 읽어 현재 위치를 파악하는 방식이다. 1. Active tag method using NFC of smartphone is a method of reading the signal of current tagged RFID device in smartphone and grasping current position.

2. NFC 방법은 지정된 존을 지나가는 Gate에서 효율이 좋다. 이외의 장소는 스마트폰에 신호를 보내야되는 태크시스템의 설치 비용이 상당히 많은 부분을 차지할것으로 보인다.2. The NFC method is efficient at the gate passing through the specified zone. Elsewhere, it seems that the installation cost of the tag system, which has to send a signal to the smartphone, will take up a considerable portion.

3. Gate와 같은 액티브태크 존을 지나 지하공간에서는 영상인식을 통해 스마트폰의 위치를 파악하는 방식을 사용한다. 천정에 본 기술을 위해 설계한 입체 2차원 바코드를 설치하여 스마트폰의 안면쪽 카메라와 자이로스코프 센서를 이용하여 위치측위하는 새로운 기술을 적용한다.3. In the underground space beyond the active tag zone such as the gate, the smartphone's location is detected through image recognition. A new two-dimensional barcode designed for this technology is installed on the ceiling and a new technology is applied to position the image using the face-side camera and gyroscope sensor of the smartphone.

4. 위치측위값이 나오면 이를 실외지도와 연결하여 실내외 길안내를 하나로 통합시킨다. 단 기술 제안의 범위는 실내 네비게이션 기술 적용에 제한한다.
4. When the position measurement value comes out, connect it with outdoor map and integrate indoor and outdoor guidance into one. However, the scope of the technical proposal is limited to the application of indoor navigation technology.

예상 서비스 시나리오는 다음과 같다,The expected service scenarios are:

1. 실내 지도를 서버시스템에 포팅한다.1. Port the indoor map to the server system.

2. 실내 지도에 예상 설치 위치를 설계한다.2. Design the expected installation location on the indoor map.

3. 예상 설치 위치에 입체 2차원 바코드장치를 천정과 지정장소에 설치한다.3. Install a stereoscopic 2D barcode device on the ceiling and the designated location at the expected installation location.

4. 설치된 장치별로 실제적인 X, Y, Z 값을 등록한다.4. Register actual X, Y, Z values for each installed device.

5. 실내지도와 실제설치값을 맵매칭 시킨다.5. Map the indoor map and the actual installation value.

6. 스마트폰 어플을 실행 (안면쪽 카메라 on, 자이로센서 on 상태) 한다.6. Run the smartphone application (face-on camera, gyro sensor on).

7. 스마트폰의 카메라가 지정장소에 설치된 입체 2차원 바코드를 인식한다. 인식값과 함께 자이로센서의 경사도값이 같이 측정된다.7. The camera of the smartphone recognizes the stereoscopic two-dimensional barcode installed at the designated place. The inclination value of the gyro sensor is measured together with the recognized value.

8. 스마트폰 어플의 인식 엔진은 바코드 인식값으로 현재의 위치를 찾고 자이로센서의 값으로 바코드 위치에서 스마트폰이 얼마나 떨어져 있는지를 계산한다.8. The smartphone application's recognition engine finds the current position with the barcode recognition value and calculates the distance of the smartphone from the barcode position to the value of the gyro sensor.

9. 인식 엔진을 통해 얻어진 결과값은 스마트폰 맵 상에 현재위치와 방향을 표시해준다.
9. The result obtained through the recognition engine shows the current position and direction on the smartphone map.

도 5는 본 발명의 일 실시예에 따른 3차원 바코드를 나타낸 것이다.
도 5의 (a)는 본 발명의 일 실시예에 따른 3차원 바코드가 천장에 매달려 있을 때에 이 바코드의 바로 아래에서 바로 위쪽을 바라보고 찍은 화면을 나타낸다.
FIG. 5 illustrates a three-dimensional barcode according to an embodiment of the present invention.
5 (a) shows a screen taken directly above and below the bar code when the 3D bar code is suspended from the ceiling according to an embodiment of the present invention.

도 5의 (b)는 도 5의 (a)의 바코드를 천장 근처의 높이에서 한 쪽 방향(남쪽, S 방향)을 찍은 결과를 나타낸다. 5 (b) shows the result of taking the bar code of FIG. 5 (a) in one direction (south, S direction) at a height near the ceiling.

도 5의 (c)는 도 5의 (a)의 바코드를 천장 근처의 높이에서 다른 한 쪽 방향(남동쪽, SE 방향)을 찍은 결과를 나타낸다. 5 (c) shows the result of taking the bar code of FIG. 5 (a) from the height near the ceiling in the other direction (southeast, SE direction).

도 5의 (d)는 도 5의 (a)의 각 면에 실제로 인쇄할 수 있는 2차원 바코드의 패턴의 예를 나타낸 것이다.FIG. 5D shows an example of a pattern of a two-dimensional bar code which can be actually printed on each surface of FIG. 5A.

도 6은 본 발명의 일 실시예에 따른 3차원 바코드가 천장에 부착되어 있을 때, 이를 스마트폰을 찍은 과정을 설명하기 위한 것이다. 스마트폰의 위치가 달라질 때마다 스마트폰의 카메라의 촬상면에 맺히는 이미지가 달라지게 된다.FIG. 6 illustrates a process of taking a smartphone when a three-dimensional bar code is attached to a ceiling according to an embodiment of the present invention. Whenever the position of the smartphone is changed, the image formed on the image plane of the camera of the smartphone changes.

도 7은 본 발명의 일 실시예에 따라, 자이로센서를 스마트폰(사용자 기기)의 기울어진 방향과 각도를 검출하고, 그 검출결과에 따라 카메라에 찍힌 화면을 통해 분석된 사용자 기기의 위치를 보정하는 방법을 설명하기 위한 것이다. 예컨대 스마트폰이 일 방향을 17도 기울었을 때에, 실제 촬상소자에는 3차원 바코드가 A영역 근처에 맺히지만, 스마트폰의 기울기를 이용하여 보정하면 3차원 바코드가, 예컨대 E영역 근처에 맺힌 것으로 보정될 수도 있다.FIG. 7 is a flowchart illustrating a method of detecting a tilted direction and an angle of a smart phone (user equipment) according to an embodiment of the present invention and correcting the position of the user's device analyzed on the screen, To explain how to do this. For example, when the smartphone is tilted by 17 degrees in one direction, a three-dimensional bar code is formed in the vicinity of the A area in the actual image pickup device, but when the smart bar is corrected using the tilt of the smartphone, .

도 8은 입체 2차원 바코드(3차원 바코드)를 이용한 실내측위 시스템의 설치절차의 예를 나타낸 것이다.8 shows an example of an installation procedure of an indoor positioning system using a stereoscopic two-dimensional barcode (three-dimensional barcode).

[MAP] 우선 CAD등을 이용하여 그림을 추출하고 지도를 제작한다. 그리고 지도 내에 POI(Point Of Interest)를 조사하여 추가할 수 있다. 또한 수집선(길)을 추가하여 (실내)지도를 완성할 수 있다.[MAP] First, we extract the picture using CAD and make a map. You can add POI (Point Of Interest) in the map and add it. You can also complete (indoor) maps by adding collection lines (roads).

[설치] 그 다음 바코드의 설치지점을 선정하여 구조물을 설치하고, 설치된 위치를 보정한 이후 추가적으로 설치할 수 있다.[Installation] The barcode can be installed after selecting the installation point of the barcode, installing the structure, and correcting the installed position.

[좌표 인식] 스마트폰 카메라를 이용하여 바코드를 영상으로 인식하고, 인식된 바코드를 분석한다. 이때 자이로 센서값을 적용하여 보정함으로써 스마트폰의 정확한 좌표를 추출한다.[Coordinate recognition] The barcode is recognized as an image using the smartphone camera, and the recognized barcode is analyzed. At this time, accurate coordinates of the smartphone are extracted by correcting by applying the gyro sensor value.

[위치정보 활용] 추출한 좌료를 기초로 길안내 어플리케이션, 즉 길안내 네비게이션을 통해 현재 위치 정보를 출력할 수 있다. 또한, 다른 스마트폰(친구)의 위치도 찾을 수 있다.[Utilization of location information] Based on the extracted coordinates, the current location information can be outputted through the navigation application, that is, the navigation guidance. You can also find the location of other smartphones (friends).

도 9는 입체 2차원 바코드 실내측위 시스템 중 MAP 부분을 자세히 설명하기 위한 것이다. 9 is a diagram for explaining the MAP part of the stereoscopic two-dimensional bar code indoor positioning system in detail.

맵 매칭 프로세스는 실내 네비게이션 제작을 위한 맵연동 프로세스이다. CAD 도면으로 그림을 추출해 지도를 제작하고, 네비게이션의 목적지인 POI를 조사/추가 한다. 그리고 사용자가 갈 수 있는 길과 신호 수집을 위한 수집선을 추가한다. 그리고 2차원 바코드 설치지점을 예상하여 최종 맵을 제작 완료한다. The map matching process is a map interlocking process for indoor navigation production. Extract pictures from CAD drawings to create maps, and investigate / add POI, the destination of navigation. And adds a collection line for the path and signal collection that the user can go. Then, the final map is completed by anticipating the two-dimensional barcode installation point.

구체적으로는 1. Floor layer를 여러 개의 페이지로 만들고, 2. POI를 수집하고, 3. 로드맵을 구성하고, 4, 바코드의 설치위치를 선정하고, 5. 설치를 위한 기초 구조물을 설치하고, 6. 1차 현장테스트를 수행하고, 7. DATA를 분석하고 보정하며, 8. 2차 현장테스트를 수행하고, 9. 후보정 작업을 거치면 MAP 매칭 프로세스가 완료될 수 있다.Specifically, 1. Create the floor layer as multiple pages, 2. Collect the POI, 3. Construct the roadmap, 4. Select the installation location of the barcode, 5. Install the foundation for installation, and 6 7. Perform primary field testing, 7. Analyze and calibrate the DATA, 8. Perform secondary field testing, and 9. Complete the MAP matching process after completion.

도 10은 입체 2차원 바코드 실내측위 시스템 중 좌표인식 방법을 설명하기 위한 것이다. 10 is a view for explaining a coordinate recognition method among stereoscopic two-dimensional bar code indoor positioning systems.

본 발명의 일 실시예에 따른 입체 2차원 바코드는 다양한 형상을 할 수 있는데, 도 10의 좌측에 나타낸 것과 같이 납작한 원통형으로 제공될 수 있다. 이 때, 원통형의 원형 밑면에는 좌표를 나타내는 바코드가 프린트되고 원통의 측면부에는 각 측면이 향하는 방향을 나타내는 방위정보가 프린트될 수 있다. 도 10의 중앙부에 있는 스마트폰과 같은 사용자 기기에서 촬영모듈을 이용하여 이 원통형 바코드를 찍고(스캔) 그 정보를 분석하면 바코드에 기록된 등록명, 역이름, 위치정보, POI, WAYPOINT, 방향 등을 알아낼 수 있고, 이러한 정보들은 도 10의 우측에 나타낸 것과 같이 고객용 스마트폰 어플리케이션을 통해 출력할 수 있다.The stereoscopic two-dimensional bar code according to an embodiment of the present invention may have various shapes, and may be provided in a flat cylindrical shape as shown on the left side of FIG. At this time, azimuth information indicating the direction in which each side faces the side surface of the cylinder can be printed. 10, when the cylindrical bar code is photographed (scanned) and the information is analyzed by using a photographing module in a user device such as a smart phone in the center of FIG. 10, the registered name, reverse name, location information, POI, And such information can be output through a smartphone application for a customer as shown on the right side of FIG.

도 11은 본 발명의 일 실시예에 따른, 입체 2차원 바코드 실내측위 시스템에서 좌표를 인식하는 방법을 설명하기 위한 것이다.11 is a diagram for explaining a method of recognizing coordinates in a stereoscopic two-dimensional bar code indoor positioning system according to an embodiment of the present invention.

이 방법은, 어플리케이션 구동 시 스마트폰에서 초당 5프레임의 디지털 이미지 영상을 획득하는 단계, 잡음 감소 프로세스를 포함하는 이미지 정보 상의 노이즈 제거용 전처리 단계, 디지털 이미지 내에서 고유 바코드를 인식하기 위한 RGB 데이터 값을 추출하는 RGB 분석단계, 이미지 RGB 패턴 스캐닝 등을 통한 바코드 부분역 인식하는 인식단계, 고유 바코드 인식을 위한 이미지 내 바코드 부분 이미지를 적출하는 바코드 부분영상 적출 단계, pixelization 등을 이용한 고유 바코드 값 해석을 수행하는 패턴스캔 및 해석 단계, 바코드 값에 따른 바코드의 위치와 자이로스코프의 값을 이용하여 삼각측량 기법을 통한 현재 위치 결정을 수행하는 맵 매핑 단계, 및 위치겨로가를 출력하는 단계를 포함할 수 있다. The method includes the steps of acquiring a digital image image of 5 frames per second in a smartphone when the application is running, a preprocessing step of removing noise on image information including a noise reduction process, an RGB data value , The recognition step of recognizing the barcode part through the image RGB pattern scanning, the step of extracting the barcode part image for extracting the barcode part image for the inherent barcode recognition, and the analysis of the inherent barcode value using the pixelization etc. A map mapping step of performing current positioning through a triangulation technique using the position of the barcode and the value of the gyroscope according to the barcode value, and the step of outputting the positional information .

도 12는 본 발명의 일 실시예에 의해 얻은 실내측위 정보를 이용하여 길찾기 기능을 제공하는 어플리케이션 프로그램의 예를 나타낸 것이다. 이 프로그램에서는 사용자의 위치 및 바라보는 방향에 따라 회전해야 할 방향을 안내하고 있다. FIG. 12 shows an example of an application program for providing a route search function using indoor positioning information obtained by an embodiment of the present invention. In this program, the user is guided in the direction to rotate according to the position and direction of the user.

도 13은 본 발명의 일 실시예에 의해 얻은 실내측위 정보를 이용하여 친구찾기 기능을 제공하는 어플리케이션 프로그램의 예를 나타낸 것이다. 이 프로그램에서는 자신과 친구의 위치가 지도 상에 표시되고 두 사람이 떨어진 직선거리도 표시된다. 13 shows an example of an application program for providing a friend searching function using indoor positioning information obtained by an embodiment of the present invention. In this program, the position of the person and friend is displayed on the map, and the straight line distance between two people is also displayed.

본 발명의 일 실시예에 다른 입체 2차원 바코드를 영상으로 인식하는 실내측위 시스템은, 실내에서도 정확한 위치정보를 제공하고, 입체 2차원 바코드를 영상인식방법으로 인식하여, 실내측위를 가능하게 하고, 자신의 위치정보도 알 수 있도록 하며, 길찾기 기능도 제공할 수 있다. The indoor positioning system for recognizing a stereoscopic two-dimensional barcode as an image according to an embodiment of the present invention provides accurate positional information in the room, recognizes the stereoscopic two-dimensional barcode as an image recognition method, enables indoor positioning, You can also find your location information and provide directions.

도 14는 본 발명의 일 실시예에 따라 방위정보가 기록된 마커를 동일 장소에서 스마트폰을 이러저리 기울여 가면서 찍은 3개의 이미지를 나타낸다. 스마트폰의 기울기에 따라 촬영된 마커의 자세가 변경됨을 알 수 있다. FIG. 14 shows three images taken while the smartphone is being tilted at the same place with the marker on which the orientation information is recorded according to an embodiment of the present invention. It can be seen that the posture of the photographed marker changes according to the inclination of the smartphone.

도 15는 본 발명의 일 실시예에 따라 방위정보와 좌표정보가 기록된 마커를 동일 장소에서 스마트폰을 이러저리 기울여 가면서 찍은 3개의 이미지를 나타낸다. 이때 이 마커는 사각뿔 형태의 형상을 하고 있으며, 스마트폰의 자세가 달라지더라도 이 사각뿔 중 특정 면은 계속해서 인식되는 것을 확인할 수 있다.FIG. 15 shows three images taken while the marker, on which the orientation information and the coordinate information are recorded, is tilted by the smartphone at the same place according to an embodiment of the present invention. At this time, the marker has a quadrangular pyramid shape, and even if the posture of the smartphone changes, it can be confirmed that the specific surface of the quadrangular pyramid continues to be recognized.

상술한 본 발명의 실시예들을 이용하여, 본 발명의 기술 분야에 속하는 자들은 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에 다양한 변경 및 수정을 용이하게 실시할 수 있을 것이다. 특허청구범위의 각 청구항의 내용은 본 명세서를 통해 이해할 수 있는 범위 내에서 인용관계가 없는 다른 청구항에 결합될 수 있다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the essential characteristics thereof. The contents of each claim in the claims may be combined with other claims without departing from the scope of the claims.

Claims (29)

카메라를 포함하는 사용자기기가 좌표정보가 표시되어 있는 마커를 촬영하는 촬영단계로서, 상기 마커는 수평면에 평행하지 않으며 서로 다른 방향을 향하는 복수 개의 평면들을 갖는 입체적인 형상을 갖고 있으며, 상기 각각의 평면에는 각각의 해당 평면이 향하는 방위에 관한 방위정보가 표시되어 있는, 상기 촬영단계;
상기 마커에 표시되어 있는 복수 개의 상기 방위정보들 중 상기 촬영된 촬영이미지에 일부의 방위정보만이 포함되어 있는 경우, ① 상기 일부의 방위정보, ② 상기 촬영이미지에 포함된 상기 마커의 상기 좌표정보, ③ 상기 마커의 상기 촬영이미지 내에서의 위치, 및 ④ 상기 마커의 상기 좌표정보가 매핑된 지도를 기초로 상기 사용자기기의 위치를 측정하는 단계; 및
상기 카메라를 구성하는 촬상소자의 촬상면이 수평방향에 대하여 기울어진 정도에 의해 정의되는 상기 사용자기기의 자세를 기초로 상기 측정된 상기 사용자기기의 위치를 보정하는 단계;
를 포함하며,
상기 각각의 평면에 표시되어 있는 상기 방위정보에는 오직 상기 각각의 해당 평면이 향하는 방위에 관한 정보만이 포함되어 있는,
사용자기기의 측위방법.
A photographing step of photographing a marker on which coordinate information is displayed by a user device including a camera, the marker having a three-dimensional shape having a plurality of planes which are not parallel to a horizontal plane and face different directions, The orientation information relating to the orientation of each of the planes facing the plane is displayed;
When the taken image includes only a part of the orientation information among the plurality of orientation information displayed on the marker, (1) the partial orientation information, (2) the coordinate information of the marker included in the captured image Measuring a position of the user equipment based on a position of the marker in the captured image and a map on which the coordinate information of the marker is mapped; And
Correcting a position of the user equipment measured based on an attitude of the user equipment defined by an inclination of an imaging surface of the camera constituting the camera with respect to a horizontal direction;
/ RTI >
Wherein the azimuth information displayed on each of the planes includes only information on the azimuth direction of each of the respective planes,
A positioning method of a user equipment.
제1항에 있어서,
상기 마커의 상기 촬영이미지 내에서의 위치, 및 상기 일부의 방위정보를 기초로, 상기 사용자기기가 향하는 방향을 측정하는 단계를 더 포함하는,
사용자기기의 측위방법.
The method according to claim 1,
Further comprising the step of measuring a direction in which the user equipment faces, based on the position of the marker in the shot image and the orientation information of the part,
A positioning method of a user equipment.
제2항에 있어서,
상기 측정된 방향을 기초로, 상기 사용자기기의 위치에서 상기 사용자기기가 향하는 방향의 조감도를 상기 사용자기기의 스크린을 통해 출력하는 단계
를 더 포함하는,
사용자기기의 측위방법.
3. The method of claim 2,
Outputting a bird's-eye view of a direction of the user equipment from a position of the user equipment through a screen of the user equipment based on the measured direction
≪ / RTI >
A positioning method of a user equipment.
삭제delete 사용자기기에,
카메라를 포함하는 사용자기기가 좌표정보가 표시되어 있는 마커를 촬영하는 촬영단계로서, 상기 마커는 수평면에 평행하지 않으며 서로 다른 방향을 향하는 복수 개의 평면들을 갖는 입체적인 형상을 갖고 있으며, 상기 각각의 평면에는 각각의 해당 평면이 향하는 방위에 관한 방위정보가 표시되어 있는, 상기 촬영단계;
상기 마커에 표시되어 있는 복수 개의 상기 방위정보들 중 상기 촬영된 촬영이미지에 일부의 방위정보만이 포함되어 있는 경우, ① 상기 일부의 방위정보, ② 상기 촬영이미지에 포함된 상기 마커의 상기 좌표정보, ③ 상기 마커의 상기 촬영이미지 내에서의 위치, 및 ④ 상기 마커의 상기 좌표정보가 매핑된 지도를 기초로 상기 사용자기기의 위치를 측정하는 단계; 및
상기 카메라를 구성하는 촬상소자의 촬상면이 수평방향에 대하여 기울어진 정도에 의해 정의되는 상기 사용자기기의 자세를 기초로 상기 측정된 상기 사용자기기의 위치를 보정하는 단계;
를 실행하도록 되어 있고,
상기 각각의 평면에 표시되어 있는 상기 방위정보에는 오직 상기 각각의 해당 평면이 향하는 방위에 관한 정보만이 포함되어 있는,
프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.
On the user device,
A photographing step of photographing a marker on which coordinate information is displayed by a user device including a camera, the marker having a three-dimensional shape having a plurality of planes which are not parallel to a horizontal plane and face different directions, The orientation information relating to the orientation of each of the planes facing the plane is displayed;
When the taken image includes only a part of the orientation information among the plurality of orientation information displayed on the marker, (1) the partial orientation information, (2) the coordinate information of the marker included in the captured image Measuring a position of the user equipment based on a position of the marker in the captured image and a map on which the coordinate information of the marker is mapped; And
Correcting a position of the user equipment measured based on an attitude of the user equipment defined by an inclination of an imaging surface of the camera constituting the camera with respect to a horizontal direction;
And,
Wherein the azimuth information displayed on each of the planes includes only information on the azimuth direction of each of the respective planes,
A computer-readable medium containing a program.
제5항에 있어서,
상기 프로그램은, 상기 사용자기기에,
상기 마커의 상기 촬영이미지 내에서의 위치, 및 상기 일부의 방위정보를 기초로, 상기 사용자기기가 향하는 방향을 측정하는 단계
를 더 실행하도록 되어 있는,
프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.
6. The method of claim 5,
Wherein the program causes the user device to perform:
Measuring a direction in which the user equipment faces, based on the position of the marker in the shot image and the orientation information of the part;
Lt; / RTI >
A computer-readable medium containing a program.
제5항에 있어서,
상기 사용자기기는 상기 사용자기기의 자세를 측정하는 자세 센서를 더 포함하는 것을 특징으로 하는,
프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.
6. The method of claim 5,
Wherein the user equipment further comprises an attitude sensor for measuring an attitude of the user equipment.
A computer-readable medium containing a program.
제6항에 있어서,
상기 프로그램은, 상기 사용자기기에,
상기 측정된 방향을 기초로, 상기 사용자기기의 위치에서 상기 사용자기기가 향하는 방향의 조감도를 상기 사용자기기의 스크린을 통해 출력하는 단계
를 더 실행하도록 되어 있는,
프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.
The method according to claim 6,
Wherein the program causes the user device to perform:
Outputting a bird's-eye view of a direction of the user equipment from a position of the user equipment through a screen of the user equipment based on the measured direction
Lt; / RTI >
A computer-readable medium containing a program.
삭제delete 카메라 및 처리부를 포함하는 사용자기기로서,
상기 처리부는,
상기 사용자기기가 좌표정보가 표시되어 있는 마커를 촬영하는 촬영단계로서, 상기 마커는 수평면에 평행하지 않으며 서로 다른 방향을 향하는 복수 개의 평면들을 갖는 입체적인 형상을 갖고 있으며, 상기 각각의 평면에는 각각의 해당 평면이 향하는 방위에 관한 방위정보가 표시되어 있는, 상기 촬영단계;
상기 마커에 표시되어 있는 복수 개의 상기 방위정보들 중 상기 촬영된 촬영이미지에 일부의 방위정보만이 포함되어 있는 경우, ① 상기 일부의 방위정보, ② 상기 촬영이미지에 포함된 상기 마커의 상기 좌표정보, ③ 상기 마커의 상기 촬영이미지 내에서의 위치, 및 ④ 상기 마커의 상기 좌표정보가 매핑된 지도를 기초로 상기 사용자기기의 위치를 측정하는 단계; 및
상기 카메라를 구성하는 촬상소자의 촬상면이 수평방향에 대하여 기울어진 정도에 의해 정의되는 상기 사용자기기의 자세를 기초로 상기 측정된 상기 사용자기기의 위치를 보정하는 단계;
를 실행하도록 되어 있고,
상기 각각의 평면에 표시되어 있는 상기 방위정보에는 오직 상기 각각의 해당 평면이 향하는 방위에 관한 정보만이 포함되어 있는,
사용자기기.
1. A user equipment comprising a camera and a processing unit,
Wherein,
Wherein the marker has a three-dimensional shape that is not parallel to a horizontal plane and has a plurality of planes oriented in different directions, and each of the planes has a corresponding The orientation information relating to the orientation in which the plane faces is displayed;
When the taken image includes only a part of the orientation information among the plurality of orientation information displayed on the marker, (1) the partial orientation information, (2) the coordinate information of the marker included in the captured image Measuring a position of the user equipment based on a position of the marker in the captured image and a map on which the coordinate information of the marker is mapped; And
Correcting a position of the user equipment measured based on an attitude of the user equipment defined by an inclination of an imaging surface of the camera constituting the camera with respect to a horizontal direction;
And,
Wherein the azimuth information displayed on each of the planes includes only information on the azimuth direction of each of the respective planes,
User device.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020130082188A 2013-07-12 2013-07-12 User device locating method and apparatus for the same Expired - Fee Related KR101720097B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130082188A KR101720097B1 (en) 2013-07-12 2013-07-12 User device locating method and apparatus for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130082188A KR101720097B1 (en) 2013-07-12 2013-07-12 User device locating method and apparatus for the same

Publications (2)

Publication Number Publication Date
KR20150008295A KR20150008295A (en) 2015-01-22
KR101720097B1 true KR101720097B1 (en) 2017-04-11

Family

ID=52571994

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130082188A Expired - Fee Related KR101720097B1 (en) 2013-07-12 2013-07-12 User device locating method and apparatus for the same

Country Status (1)

Country Link
KR (1) KR101720097B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10651586B2 (en) * 2018-06-01 2020-05-12 Tyco Electronics Brasil Ltda Electrical connector with machine-readable graphic identifier
CN112051546B (en) * 2019-06-05 2024-03-08 北京外号信息技术有限公司 Device for realizing relative positioning and corresponding relative positioning method
KR102316216B1 (en) * 2019-11-12 2021-10-22 네이버랩스 주식회사 Method and system for camera-based visual localization using blind watermarking
CN111881824B (en) * 2020-07-28 2024-07-02 广东电网有限责任公司 Indoor map acquisition method and system based on image recognition
CN112580631A (en) * 2020-12-24 2021-03-30 北京百度网讯科技有限公司 Indoor positioning method and device, electronic equipment and storage medium
KR102821732B1 (en) * 2024-05-30 2025-06-17 주식회사 프리그로우 Apparatus, method and system for providing route for each floor based on selection of means of trans portation between floors

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100649674B1 (en) * 2005-11-28 2006-11-27 한국전자통신연구원 Position Recognition Method and Device Using Built-in Camera of Mobile Terminal
JP2010530253A (en) * 2007-05-14 2010-09-09 ヴァリアン メディカル システムズ インコーポレイテッド Marker system and method of use thereof
KR101182421B1 (en) * 2012-02-09 2012-09-12 (주)씨투엘이큅먼트 System and method for acquiring indoor photographing location information

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295220B2 (en) * 2004-05-28 2007-11-13 National University Of Singapore Interactive system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100649674B1 (en) * 2005-11-28 2006-11-27 한국전자통신연구원 Position Recognition Method and Device Using Built-in Camera of Mobile Terminal
JP2010530253A (en) * 2007-05-14 2010-09-09 ヴァリアン メディカル システムズ インコーポレイテッド Marker system and method of use thereof
KR101182421B1 (en) * 2012-02-09 2012-09-12 (주)씨투엘이큅먼트 System and method for acquiring indoor photographing location information

Also Published As

Publication number Publication date
KR20150008295A (en) 2015-01-22

Similar Documents

Publication Publication Date Title
EP3213031B1 (en) Simultaneous localization and mapping by using earth's magnetic fields
US9250073B2 (en) Method and system for position rail trolley using RFID devices
KR101720097B1 (en) User device locating method and apparatus for the same
KR100649674B1 (en) Position Recognition Method and Device Using Built-in Camera of Mobile Terminal
KR100906974B1 (en) Location recognition device using camera and its method
JP5844463B2 (en) Logo detection for indoor positioning
US9378558B2 (en) Self-position and self-orientation based on externally received position information, sensor data, and markers
JP7113611B2 (en) LOCATION IDENTIFICATION APPARATUS, LOCATION IDENTIFICATION PROGRAM AND LOCATION IDENTIFICATION METHOD, PHOTOGRAPHED IMAGE REGISTRATION APPARATUS, PHOTOGRAPHED IMAGE REGISTRATION PROGRAM AND PHOTOGRAPHIED IMAGE REGISTRATION METHOD
Taneja et al. Analysis of three indoor localization technologies for supporting operations and maintenance field tasks
EP2972482B1 (en) System and method for calculating lever arm values photogrammetrically
US11106837B2 (en) Method and apparatus for enhanced position and orientation based information display
US8155387B2 (en) Method and system for position determination using image deformation
USRE50448E1 (en) Method and apparatus for determining the location of a static object
KR20160027605A (en) Method for locating indoor position of user device and device for the same
KR20140012574A (en) System and method for determining indoor position
TWI683123B (en) Terminal device for position measurement, computer program and position measurement system
KR20180094493A (en) Method and system for creating indoor map
KR100878781B1 (en) Surveying method for measuring the size and coordinate of a structure using a mobile terminal
Jain et al. A study on Indoor navigation techniques using smartphones
Kuusniemi et al. Multi-sensor multi-network seamless positioning with visual aiding
US11475177B2 (en) Method and apparatus for improved position and orientation based information display
TW201621273A (en) Mobile positioning apparatus and positioning method thereof
KR100581086B1 (en) Method and apparatus for robot position measurement using RFC ID TALC
JP2006023831A (en) Moving object detection method and system
US20220198178A1 (en) Method and apparatus for identifying the floor of a building

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

N231 Notification of change of applicant
PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

FPAY Annual fee payment

Payment date: 20200310

Year of fee payment: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20210322

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20210322