KR102138728B1 - Electronic Device And Method For Processing Tag Information Thereof - Google Patents
Electronic Device And Method For Processing Tag Information Thereof Download PDFInfo
- Publication number
- KR102138728B1 KR102138728B1 KR1020130100699A KR20130100699A KR102138728B1 KR 102138728 B1 KR102138728 B1 KR 102138728B1 KR 1020130100699 A KR1020130100699 A KR 1020130100699A KR 20130100699 A KR20130100699 A KR 20130100699A KR 102138728 B1 KR102138728 B1 KR 102138728B1
- Authority
- KR
- South Korea
- Prior art keywords
- tag information
- information
- data
- electronic device
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/23—Updating
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 기술에 따른 전자 장치의 태그 정보 처리 방법은 전자 장치의 태그 정보 처리 방법에 있어서, 상기 전자 장치에 저장된 데이터를 시간, 카테고리, 사용자 컨텐츠 별로 분류하는 단계; 상기 분류된 데이터에 적어도 하나 이상의 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보를 생성하는 단계; 검색 인터페이스를 실행하는 단계;및 상기 검색 인터페이스에 태그 정보 표시하는 단계를 포함한다.In the tag information processing method of an electronic device according to the present technology, there is provided a method of processing tag information of an electronic device, the method comprising: classifying data stored in the electronic device by time, category, and user content; Generating at least one time tag information, category tag information, or user content tag information in the classified data; And executing a search interface; and displaying tag information on the search interface.
Description
본 발명은 전자 장치 및 전자 장치의 태그 정보를 생성하고 생성된 태그 정보를 이용하는 방법에 관한 것이다.The present invention relates to an electronic device and a method of generating tag information of the electronic device and using the generated tag information.
일반적으로 스마트 폰(Smart Phone), 태플릿 PC(Tablet PC), PMP(Portable Multimedia Player), PDA(Personal Digital Assistant), 랩탑 PC(Laptop Personal Computer) 및 손목 시계(Wrist watch), HMD(Head-Mounted Display)와 같은 웨어러블 기기(Wearable device) 등의 전자 장치는 최근 전화 기능뿐 만 아니라 다른 다양한 기능(예를 들어, 소셜 네트워크 서비스(SNS), 인터넷, 멀티미디어, 사진 동영상 촬영 및 실행)을 포함한다.In general, smart phones (Smart Phone), Tablet PC (Tablet PC), PMP (Portable Multimedia Player), PDA (Personal Digital Assistant), Laptop PC (Laptop Personal Computer) and wrist watch (Wrist watch), HMD (Head- Electronic devices such as wearable devices such as Mounted Display) include not only recent phone functions, but also various other functions (e.g., social network services (SNS), the Internet, multimedia, taking and executing photos and videos). .
한편, 사용자가 전자 장치를 이용하여 전자 장치 내의 데이터를 검색하는 경우 사용자가 원하는 검색 결과에 대한 명칭 또는 데이터를 미리 알고 있거나 예측 가능해야 하므로, 데이터 검색시 텍스트 속성은 사용자가 입력한 키워드와 일치하거나 거의 일치하는 수준으로 유사해야 의도한 검색 결과를 얻을 수 있었다.On the other hand, when a user searches for data in an electronic device using an electronic device, the name or data for the search result desired by the user must be known or predictable in advance. Therefore, when searching for data, the text attribute matches the keyword entered by the user They had to be closely matched and similar to get the intended search results.
종래에는 사용자가 입력한 키워드 입력이 정확하지 않거나 사용자가 키워드를 정확히 인지하지 못하면 데이터 검색이 어려운 문제점이 있다.Conventionally, if the keyword input by the user is not correct or the user does not correctly recognize the keyword, data search is difficult.
본 발명은 전자 장치 및 전자 장치의 태그 정보 처리 방법에 관한 것으로, 전자 장치 내의 정보를 이용하여 태그 정보를 생성하고 생성된 태그 정보를 이용하여 검색하는 방법을 제공한다.The present invention relates to an electronic device and a method of processing tag information of the electronic device, and provides a method of generating tag information by using information in the electronic device and searching by using the generated tag information.
본 발명의 실시예에 따른 전자 장치의 태그 정보 처리 방법은 전자 장치의 태그 정보 처리 방법에 있어서, 상기 전자 장치에 저장된 데이터를 시간, 카테고리, 사용자 컨텐츠 별로 분류하는 단계; 상기 분류된 데이터에 적어도 하나 이상의 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보를 생성하는 단계; 검색 인터페이스를 실행하는 단계;및 상기 검색 인터페이스에 태그 정보 표시하는 단계를 포함한다.According to an embodiment of the present invention, a method of processing tag information of an electronic device includes: classifying data stored in the electronic device by time, category, and user content; Generating at least one time tag information, category tag information, or user content tag information in the classified data; And executing a search interface; and displaying tag information on the search interface.
본 발명의 실시예에 따른 전자 장치는 전자 장치에 있어서, 터치 이벤트를 감지하는 사용자 입력부; 상기 전자 장치에 저장된 데이터를 시간, 카테고리, 사용자 컨텐츠 별로 분류하고, 상기 분류된 데이터에 적어도 하나 이상의 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보를 생성하며, 상기 감지된 터치 이벤트에 응답하여 검색 인터페이스를 실행하고 제어부; 및 상기 검색 인터페이스에 태그 정보를 표시하는 표시부를 포함한다.An electronic device according to an embodiment of the present invention is an electronic device, comprising: a user input unit for sensing a touch event; Classifies data stored in the electronic device by time, category, and user content, generates at least one time tag information, category tag information, or user content tag information in the classified data, and searches in response to the sensed touch event An interface and a control unit; And a display unit for displaying tag information on the search interface.
본 발명에 따른 전자 장치 및 전자 장치의 태그 정보 처리 방법은 태그 정보를 이용하여 정보를 검색할 수 있음으로써 사용자가 간단하고 정확하게 검색결과를 획득할 수 있다.The electronic device and the tag information processing method of the electronic device according to the present invention enable a user to simply and accurately obtain a search result by using tag information to search for information.
도 1은 본 발명의 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 2는 본 발명의 실시예에 따른 전자 장치의 태그 정보 처리 방법에 관한 순서도이다.
도 3은 본 발명의 실시예에 따른 전자 장치의 태그 정보 처리 방법에 관한 순서도이다.
도 4는 본 발명의 실시예에 따른 전자 장치의 태그 정보 처리 방법에 관한 도면이다.
도 5는 본 발명의 다른 실시예에 따른 전자 장치의 태그 정보 처리 방법에 관한 순서도이다.
도 6은 본 발명의 다른 실시예에 따른 전자 장치의 태그 정보 처리 방법에 관한 순서도이다.1 is a block diagram showing a configuration of an electronic device according to an embodiment of the present invention.
2 is a flowchart illustrating a method of processing tag information in an electronic device according to an embodiment of the present invention.
3 is a flowchart illustrating a method of processing tag information in an electronic device according to an embodiment of the present invention.
4 is a diagram illustrating a method of processing tag information in an electronic device according to an embodiment of the present invention.
5 is a flowchart illustrating a method of processing tag information in an electronic device according to another embodiment of the present invention.
6 is a flowchart illustrating a method of processing tag information in an electronic device according to another embodiment of the present invention.
이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시예를 첨부한 도면을 참조하여 설명하기로 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings in order to describe in detail enough to allow those of ordinary skill in the art to easily implement the technical idea of the present invention.
도 1은 본 발명의 일 실시예에 따른 전자 장치(100)의 구성을 나타내는 블록도이다. 1 is a block diagram showing the configuration of an
본 발명의 실시예에 따른 전자 장치(100)의 구성은 스마트 폰(Smart Phone)에 적용될 수 있으나, 이에 한정되지 않고 다양한 장치에 적용될 수 있다. 예를 들어, 전자 장치(100)의 구성은 태블릿 PC(Tablet PC), PMP(Portable Multimedia Player), PDA(Personal Digital Assistant), 랩탑 PC(Laptop Personal Computer) 및 손목 시계(Wrist watch), HMD(Head-Mounted Display)와 같은 웨어러블 기기(Wearable device) 등에도 적용될 수 있다.The configuration of the
전자 장치(100)는 표시부(110), 사용자 입력부(120), 통신부(130), 저장부(140), 카메라부(150), 오디오부(160) 및 제어부(170)를 포함할 수 있다.The
표시부(110)는 영상 또는 데이터를 사용자에게 표시하는 기능을 수행할 수 있다. 표시부(110)는 표시 패널을 포함할 수 있다. 표시 패널에는, 예를 들어, LCD(Liquid-Crystal Display) 또는 AM-OLED(Active-Matrix Organic Light-Emitting Diode) 등이 이용될 수 있다. 이때, 표시부(110)는 표시 패널을 제어하는 컨트롤러를 더 포함할 수 있다. 표시 패널은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. The
한편, 표시부(110)는 터치 패널(121)과 결합되어 터치 스크린의 형태로 제공될 수 있다. 예를 들어, 터치 스크린은 표시 패널과 터치 패널이 적층 구조로 결합된 일체형의 모듈을 포함할 수 있다.Meanwhile, the
사용자 입력부(120)는 사용자로부터 다양한 명령어를 입력 받을 수 있다. 사용자 입력부(120)는, 예를 들면, 터치 패널(121), 펜 센서(122) 또는 키(123) 중 적어도 하나 이상을 포함할 수 있다.The
터치 패널(121)은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 사용자에 의한 터치 입력을 인식할 수 있다. 터치 패널(121)은 컨트롤러(미도시)를 더 포함할 수도 있다. 한편, 정전식의 경우에는 직접 터치 외에 근접 인식도 가능할 수 있다. 터치 패널(121)은 택타일 레이어(Tactile Layer)를 더 포함할 수도 있다. 이 경우, 터치 패널(121)은 사용자에게 촉각 반응을 제공할 수 있다. 펜 센서(122)는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일한 방식으로 별도의 펜 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 키(123)에는, 예를 들어, 기계(Mechanical) 키 또는 터치 키 등이 있을 수 있다. 기계 키에는, 예를 들어, 전자 장치(100)의 일측(side)에 구비되어 푸쉬 시에 전자 장치(100)의 디스플레이를 온 시키는 전원 버튼, 전자 장치(100)의 다른 일측에 위치하여 푸쉬 시에 볼륨을 제어하는 하나 이상의 볼륨 버튼, 전자 장치(100)의 표시부(110)의 하단의 중앙에 구비되어 푸쉬 시에 홈 스크린 화면으로 이동시키는 홈 버튼 중 적어도 하나를 포함할 수 있다. 터치 키에는, 예를 들어, 전자 장치(100)의 표시부(110)의 하단의 일면에 구비되어, 터치 시에 현재 표시 중인 컨텐츠와 관련된 메뉴를 제공하는 메뉴 키, 전자 장치(100)의 표시부(110)의 하단의 다른 일면에 구비되어, 터치 시에 현재 표시 중인 화면의 이전 화면으로 복귀하는 기능을 제공하는 복귀 키 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 표시부(110)는 제어부(170)로부터 전송된 검색 인터페이스를 표시한다. 터치 패널(121)은 키워드 입력을 위한 터치 이벤트 및/또는 태그 정보 선택을 위한 터치 이벤트를 감지할 수 있다.The
통신부(130)는 이동 통신부(131), 무선 인터넷부(132), 근거리 통신부(133) 및 위치 정보부(134) 중 적어도 하나 이상을 포함할 수 있다.The
이동 통신부(131)는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The
무선 인터넷부(132)는 무선 인터넷 접속을 위한 기능을 수행한다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.The wireless internet unit 132 performs a function for wireless internet access. As a wireless Internet technology, WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), and the like may be used.
근거리 통신부(133)는 근거리 통신을 위한 기능을 수행한다. 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication unit 133 performs a function for short-range communication. As a short-range communication technology, Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.
위치 정보부(134)은 이동 단말기의 위치를 획득하거나 확인하기 위한 기능을 수행한다. 위치 정보부(134)은 범지구적 위성항법시스템(Global Navigation Satellite System, GNSS)를 이용하여 위치 정보를 획득할 수 있다. 여기서, 범지구적 위성항법시스템(GNSS)은 지구를 공전하여 무선 항법 수신기들의 소정의 타입들이 지표면 또는 지표면 근처의 그들의 위치를 결정할 수 있는 기준 신호들을 보내는 무선 항법위성시스템들을 설명하기 위해 이용되는 용어이다. 상기 범지구적 위성항법시스템(GNSS)에는 미국에서 운영하는 GPS(Global Position System), 유럽에서 운영하는 갈릴레오(Galileo), 러시아에서 운영하는 GLONASS(Global Orbiting Navigational Satellite System), 중국에서 운영하는 COMPASS 및 일본에서 운영하는 QZSS(Quasi-Zenith Satellite System) 등이 있다.The
추가적으로 통신부(130)는 전자 장치(100)를 네트워크(예로, Internet, LAN(Local Area Network), WAN(Wire Area Network), Telecommunication Network, Cellular Network, Satellite Network 또는 POTS(Plain Old Telephone Service) 등과 연결시키기 위한 네트워크 인터페이스(예로, LAN card) 또는 모뎀 등을 포함할 수 있다. 일 실시예에 따르면, 통신부(130)는 특정서버 또는 다른 전자 장치로부터 획득한 위치 정보, 시간 정보, 날씨 정보를 제어부(170) 제어 하에 저장부(140)로 전송하거나 제어부(170) 제어 하에 위치 정보, 시간 정보, 날씨 정보를 이용하여 태그 정보를 생성한다.Additionally, the
저장부(140)는 내장 메모리(Internal Memory) 및 외장 메모리(External Memory) 중 적어도 하나 이상을 포함할 수 있다. The
내장 메모리는, 예를 들어, 휘발성 메모리(예를 들면, DRAM(Dynamic RAM), SRAM(Static RAM), SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(예를 들면, OTPROM(One Time Programmable ROM), PROM(Programmable ROM), EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 제어부(170)는 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 제어부(170)는 다른 구성요소로부터 수신하거나 생성된 데이터를 비휘발성 메모리에 보존할 수 있다.The built-in memory is, for example, a volatile memory (e.g., DRAM (Dynamic RAM), SRAM (Static RAM), SDRAM (Synchronous Dynamic RAM), etc.), nonvolatile memory (e.g., OTPROM (One Time Programmable ROM) ), PROM (Programmable ROM), EPROM (Erasable and Programmable ROM), EEPROM (Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM, etc.), hard disk drive (HDD), or solid state drive (SSD). Can include. According to an embodiment, the
외장 메모리는 CF(Compact Flash), SD(Secure Digital), Micro-SD(Micro Secure Digital), Mini-SD(Mini Secure Digital), xD(extreme Digital) 및 Memory Stick 중 적어도 하나 이상을 포함할 수 있다.The external memory may include at least one of Compact Flash (CF), Secure Digital (SD), Micro Secure Digital (Micro-SD), Mini Secure Digital (Mini-SD), extreme digital (xD), and Memory Stick. .
저장부(140)는 전자 장치(100)의 자원을 제어하는 운영체제 및 어플리케이션의 동작을 위한 응용 프로그램 등을 저장할 수 있다. 운영체제는 커널, 미들웨어, API 등을 포함할 수 있다. 예를 들어, 운영체제로는 안드로이드(Android), iOS, 윈도우즈(Windows), 심비안(Symbian), 타이젠(Tizen) 또는 바다(Bada) 운영 체제가 이용될 수 있다. The
커널은 자원을 관리할 수 있는 시스템 리소스 매니저 및 디바이스 드라이버를 포함할 수 있다. 리소스 매니저는, 예를 들어, 제어부 관리부, 메모리부 관리부 또는 파일 시스템 관리부 등을 포함할 수 있으며, 시스템 리소스의 제어, 할당 또는 회수 등의 기능을 수행할 수 있다. 디바이스 드라이버는 전자 장치(100)의 다양한 구성요소들을 소프트웨어적으로 접근하여 제어할 수 있도록 한다. 이를 위하여, 디바이스 드라이버는 인터페이스와 각 하드웨어 업체가 제공하는 개별 드라이버 모듈 부분으로 구분될 수 있다. 디바이스 드라이버는, 예를 들어, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, Wi-Fi 드라이버, 오디오 드라이버 또는 IPC(Inter-Process Communication) 드라이버 중 적어도 하나를 포함할 수 있다.The kernel may include a system resource manager and a device driver capable of managing resources. The resource manager may include, for example, a control unit management unit, a memory unit management unit, or a file system management unit, and may perform functions such as control, allocation, or collection of system resources. The device driver enables software to access and control various components of the
미들웨어는 다양한 어플리케이션들에서 공통적으로 필요한 기능을 제공하기 위해 미리 구현해 놓은 복수의 모듈들을 포함하여 구성될 수 있다. 미들웨어는 어플리케이션에서 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 API를 통해 공통적으로 필요한 기능을 제공할 수 있다. 미들웨어는, 예컨대, 어플리케이션 매니저(Application Manager), 윈도우 매니저(Window Manager), 멀티미디어 매니저(Multimedia Manager), 리소스 매니저(Resource Manager), 파워 매니저(Power Manager), 데이터베이스 매니저(Database Manager) 또는 패키지 매니저(package manager) 중 적어도 하나 이상을 포함할 수 있다. 또한, 미들웨어는 구현 예에 따라, 연결 매니저(Connectivity Manager), 통지 매니저(Notification Manager), 위치 매니저(Location Manager), 그래픽 매니저(Graphic Manager) 또는 보안 매니저(Security Manager) 중 적어도 하나를 포함할 수 있다. 또한, 미들웨어는 구현 예에 따라, 런타임 라이브러리(Runtime Library) 또는 기타 라이브러리 모듈들을 포함할 수 있다. 런타임 라이브러리는, 어플리케이션이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈이다. 예컨대, 런타임 라이브러리는 입출력, 메모리 관리 또는 산술 함수에 대한 기능 등을 수행할 수 있다. 미들웨어는 전술한 내부 구성요소 모듈들의 다양한 기능 조합을 통해 새로운 미들웨어 모듈을 생성하여 사용할 수도 있다. 한편, 미들웨어는 차별화된 기능을 제공하기 위해 운영체제의 종류별로 특화된 모듈을 제공할 수도 있다. The middleware may be configured by including a plurality of pre-implemented modules to provide functions commonly required in various applications. The middleware may provide functions commonly needed through an API so that applications can efficiently use limited system resources inside the electronic device. The middleware is, for example, an application manager, a window manager, a multimedia manager, a resource manager, a power manager, a database manager, or a package manager ( package manager). In addition, the middleware may include at least one of a connectivity manager, a notification manager, a location manager, a graphic manager, and a security manager, depending on an implementation example. have. In addition, the middleware may include a runtime library or other library modules according to an implementation example. The runtime library is a library module used by the compiler to add new functions through a programming language while an application is running. For example, the runtime library may perform input/output, memory management, or functions for arithmetic functions. The middleware may create and use a new middleware module through a combination of various functions of the aforementioned internal component modules. Meanwhile, the middleware may provide modules specialized for each type of operating system in order to provide differentiated functions.
API는, API 프로그래밍 함수들의 집합으로, 운영체제에 따라 다른 구성으로 제공될 수 있다. 예컨대, 안드로이드 또는 iOS의 경우, 예를 들면, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠(Tizen)의 경우, 예를 들면, 두 개 이상의 API 셋을 제공할 수 있다. The API is a set of API programming functions and may be provided in different configurations depending on the operating system. For example, in the case of Android or iOS, for example, one API set may be provided for each platform, and in the case of Tizen, for example, two or more API sets may be provided.
어플리케이션은 응용 프로그램을 이용하여 적어도 하나 이상의 기능을 수행할 수 있다. 어플리케이션은, 예를 들면, 프리로드 어플리케이션(Preloaded Application) 또는 제 3자 어플리케이션(Third Party Application)로 구분될 수 있다. 어플리케이션에는, 예를 들어, 홈 화면을 실행하는 홈 어플리케이션, 다이얼러(Dialer) 어플리케이션, SMS(Short Message Server)/MMS(Multi-media Message Service) 어플리케이션, IM(Instant Message) 어플리케이션, 브라우저(Browser) 어플리케이션, 카메라 어플리케이션, 알람(Alarm) 어플리케이션, 컨택츠(Contacts (or address book)) 어플리케이션, 음성 다이얼(Voice dial) 어플리케이션, 이메일(email) 어플리케이션, 달력 어플리케이션, 미디어 플레이어(Media Player), 앨범 어플리케이션 및 시계 어플리케이션 등이 있을 수 있다.An application may perform at least one or more functions using an application program. Applications may be classified into, for example, a preloaded application or a third party application. Applications include, for example, a home application that runs a home screen, a dialer application, a short message server (SMS)/multi-media message service (MMS) application, an instant message (IM) application, and a browser application. , Camera application, alarm application, contacts (or address book) application, voice dial application, email application, calendar application, media player, album application and clock There may be applications, etc.
저장부(140)는 통신부(130), 사용자 입력부(120), 카메라부(150) 및 오디오부(160)로 수집한 데이터를 저장한다. 저장부(140)는 수집된 데이터를 이용하여 제어부(140)에서 생성한 태그 정보를 저장한다.The
카메라부(150)는 화상 및 동영상을 촬영할 수 있고, 구현예에 따라서는, 하나 이상의 이미지 센서(예: 전면 렌즈 또는 후면 렌즈), ISP(image signal processor, 미도시) 및/또는 플래쉬 LED(flash LED, 미도시)를 포함할 수 있다.The
한편, 카메라부(150)는 프로세서(200)의 적어도 일부를 포함하여 구성될 수도 있다. 예를 들어, 카메라부(150)는 이미지를 획득하는 동작 외에 이미지를 보정하거나, 이미지의 특징을 산출하는 등의 동작을 포함할 수도 있다. 이 경우, 카메라부(150)는 하드웨어 모듈 및 소프트웨어 모듈을 가지는 기능적 모듈이 될 수 있다. 일 실시예에 따르면, 카메라부(150)는 이미지 획득시 피사체의 얼굴을 인식하여 얼굴 태그 정보를 생성할 수 있다.Meanwhile, the
오디오부(160)는 음성과 전기신호를 쌍방향으로 변환시킬 수 있다. 오디오부(160), 예를 들어, 스피커, 리시버, 이어폰 또는 마이크 중 적어도 하나를 포함하여 입력 또는 출력되는 음성 정보를 변환시킬 수 있다.The
제어부(170)는 운영체제 및 응용 프로그램을 구동하여, 제어부(170)에 연결된 다수의 하드웨어 및 소프트웨어 구성요소들을 제어하고 멀티 미디어 데이터를 포함하는 각종 데이터 처리 및 연산을 수행할 수 있다. 제어부(170)는, 예를 들어, SoC(System on Chip)으로 구현될 수 있으며, GPU(Graphic Processing Unit)을 더 포함할 수도 있다. The
일 실시예에 따르면, 제어부(170)는 사용자의 사용에 의해 생성되어 저장된 데이터가 있는지 판단한다. 사용자의 사용에 의해 생성되어 저장된 데이터가 있으면 제어부(170)는 사용에 의해 생성되어 저장된 데이터 및 디폴트로 저장된 데이터를 수집한다. 데이터는 적어도 하나 이상의 시간 정보, 위치 정보, 날씨 정보, 카테고리(Category) 정보, 텍스트 정보 또는 이미지 정보 획득시 피사체의 얼굴 인식 정보를 포함한다. 디폴트로 저장된 데이터는 사용자에 의한 전자 장치(100)의 사용이 없어도 전자 장치(100) 제조시 저장된 데이터이다. 제어부(170)는 사용에 의해 생성되어 저장된 데이터 및 디폴트로 저장된 데이터를 적어도 하나 이상의 시간(Time) 별, 카테고리(Category) 별 또는 사용자 컨텐츠(User Contents) 별로 분류한다. 제어부(170)는 적어도 하나 이상의 시간 별, 카테고리 별 또는 사용자 컨텐츠 별로 분류된 데이터에 태그 정보를 생성한다. 시간 정보를 포함하는 데이터는 시간 태그 정보가 생성되고, 카테고리 정보를 포함하는 데이터는 카테고리 데이터가 생성되며, 위치 정보, 날씨 정보, 텍스트 정보 또는 얼굴 인식 정보를 포함하는 데이터는 사용자 컨텐츠 태그 정보가 생성된다. 제어부(170)는 사용자의 사용에 의해 생성되어 저장된 데이터가 없으면, 상기 디폴트로 저장된 데이터를 적어도 하나 이상의 시간, 카테고리 또는 사용자 컨텐츠 별로 분류한다. 제어부(170)는 검색 인터페이스가 실행되면 검색 인터페이스에 생성된 태그 정보(예를 들어, 적어도 하나 이상의 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보)를 표시부(110)에 표시할 수 있다. 사용자는 터치 이벤트를 통하여 검색 인터페이스를 선택할 수 있다. 전자 장치(100)는 검색 인터페이스를 선택하는 터치 이벤트를 감지하여 검색 인터페이스를 실행한다. 터치 이벤트는 사용자에 의한 터치 입력에 관한 것으로, 터치 패널(121)에 입력 수단을 직접 접촉하여 끄는(drag) 동작, 터치 패널(121)에 입력 수단을 직접 접촉하여 튕기는(flick) 동작, 터치 패널(121)에 입력 수단을 직접 접촉하여 두드리는(tap) 동작, 터치 패널(121)에 입력 수단이 호버링된 상태에서 끄는(drag) 동작, 터치 패널(121)에 입력 수단이 호버링된 상태에서 튕기는(flick) 동작 등을 포함할 수 있다.According to an embodiment, the
제어부(170)는 사용자가 검색을 위한 검색 인터페이스를 선택하는 터치 이벤트를 발생하면 터치 이벤트에 따라 검색 인터페이스를 실행한다. 제어부(170)는 검색 인터페이스를 선택하는 터치 이벤트를 감지하여 검색 인터페이스를 실행한다.When a user generates a touch event for selecting a search interface for search, the
검색 인터페이스가 실행되면 제어부(170)는 검색 인터페이스에 적어도 하나 이상의 키워드 입력 영역, 태그 정보 영역 또는 검색 결과 표시 영역을 표시부(110)가 표시할 수 있게한다. 태그 정보 영역은 적어도 하나 이상의 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보를 포함한다. 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보는 각각 사용 빈도 또는 중요도 순으로 배치되고, 각 태그 정보마다 분류되어 특정 영역으로 표시될 수 있다. 또한, 시간 태그 정보는, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보는 각각 사용 빈도 또는 중요도에 따라 다른 태그 정보와 다른 색이나 다른 크기로 표시될 수 있다.When the search interface is executed, the
제어부(170)는 사용자 입력부(120)로부터 적어도 하나 이상의 키워드를 입력하는 터치 이벤트를 수신하거나 적어도 하나 이상의 태그 정보를 선택하는 터치 이벤트를 수신할 수 있다. 또는 제어부(170)는 사용자 입력부(120)로부터 적어도 하나 이상의 키워드를 입력하는 터치 이벤트를 수신하고 적어도 하나 이상의 태그 정보를 선택하는 터치 이벤트를 수신할 수 있다. 사용자가 적어도 하나 이상의 키워드 입력 또는 적어도 하나 이상의 태그 정보를 선택하거나 적어도 하나 이상의 키워드 입력 및 적어도 하나 이상의 태그 정보를 선택하는 터치 이벤트를 발생시키면, 제어부(170)는 터치 이벤트를 감지하여 적어도 하나 이상의 키워드를 수신하거나 적어도 하나 이상의 태그 정보를 선택 또는 적어도 하나 이상의 키워드를 수신하고 적어도 하나 이상의 태그 정보를 선택할 수 있다. 제어부(170)는 선택된 태그 정보는 선택되지 않은 태그 정보와 다른 색이나 다른 크기로 표시부(110)에 표시될 수 있게 한다. 제어부(170)는 수신된 적어도 하나 이상의 키워드 및/또는 선택된 적어도 하나 이상의 태그 정보에 따라 데이터를 검색하고 검색 결과를 검색 결과 표시 영역에 표시부(110)를 통해 표시할 수 있다.The
도 2는 본 발명의 실시예에 따른 전자 장치(100)의 태그 정보 처리 방법에 관한 순서도이다.2 is a flowchart illustrating a method of processing tag information by the
전자 장치(100)는 201 단계에서, 전자 장치(100)에 사용자의 사용에 의해 생성되어 저장된 데이터가 있는지 를 판단한다. In
사용자의 사용에 의해 생성되어 저장된 데이터가 있으면, 전자 장치(100)는 203 단계에서, 사용에 의해 생성되어 저장된 데이터 및 디폴트로 저장된 데이터를 취합한다. 데이터는 적어도 하나 이상의 시간 정보, 위치 정보, 날씨 정보, 카테고리(Category) 정보, 텍스트 정보 또는 이미지 정보 획득시 피사체의 얼굴 인식 정보를 포함한다.If there is data generated and stored by the user's use, in step 203, the
전자 장치(100)는 205 단계에서, 사용에 의해 생성되어 저장된 데이터 및 디폴트로 저장된 데이터를 적어도 하나 이상의 시간(Time) 별, 카테고리(Category) 별 또는 사용자 컨텐츠(User Contents) 별로 분류한다. In
예를 들어, 전자 장치(100)는 205 단계에서, 시간 정보를 포함하는 데이터는 시간 범위 별로 분류될 수 있다. 시간 범위는 미리 설정되거나 사용자에 의해 변경될 수 있다. 예를 들어, '오늘', '어제', '내일', '지난 7일'로 시간 정보를 분류하도록 미리 설정되 있는 시간 범위를 사용자에 의해 '오늘', '어제', '내일', '지난 7일', '앞으로 7일', '지난 30일'의 시간 범위로 변경할 수 있다.For example, in
카테고리 정보를 포함하는 데이터는 유사한 종류끼리 하나의 카테고리 명칭으로 분류될 수 있다. 예를 들어, 유사한 속성을 대표하는 카테고리 명칭은 표 1과 같을 수 있다.Data including category information may be classified into one category name among similar types. For example, category names representing similar attributes may be as shown in Table 1.
위치 정보, 날씨 정보, 텍스트 정보 또는 얼굴 인식 정보를 포함하는 데이터는 사용자 컨텐츠로 분류될 수 있다. 위치 정보, 날씨 정보, 텍스트 정보 또는 얼굴 인식 정보는 자동으로 태그 정보를 생성할 수 있거나 사용자 지정에 의해 분류된 후 태그 정보로 생성될 수 있다.Data including location information, weather information, text information, or face recognition information may be classified as user content. Location information, weather information, text information, or face recognition information may automatically generate tag information or may be classified by user designation and then generated as tag information.
전자 장치(100)는 209 단계에서, 사용자가 검색을 위한 검색 인터페이스를 선택하면 검색 인터페이스를 실행한다.In
전자 장치(100)는 211단계에서, 검색 인터페이스가 실행되면 검색 인터페이스에 생성된 태그 정보(예를 들어, 적어도 하나 이상의 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보)를 표시한다.In
사용자의 사용에 의해 생성되어 저장된 데이터가 없으면, 전자 장치(100)는 213 단계에서, 디폴트로 저장된 데이터를 적어도 하나 이상의 시간(Time) 별, 카테고리(Category) 별 또는 사용자 컨텐츠(User Contents) 별로 분류한다. 여기서, 사용자의 사용에 의해 생성된 데이터는 전자 장치(100)를 사용하여 생성하는 데이터뿐 만 아니라, 통신부(130)을 통해 다른 전자 장치 또는 서버에서 전송된 데이터도 포함한다. 사용자의 사용에 의해 생성된 데이터는 사용자의 전자 장치(100) 이용에 따른 데이터 및 네트워크를 통해 전송받은 데이터를 포함한다. 를 들어, 통신부(130)를 통해 다른 전자 장치 또는 서버에서 전송된 데이터 또는 네트워크를 통해 전송받은 데이터는 수신받은 메시지, 이메일, SNS 정보 또는 WWB으로부터 전송받은 정보 등을 포함한다.If there is no data generated and stored by the user's use, in
예를 들어, 전자 장치(100)는 213 단계에서, 시간 정보를 포함하는 데이터는 시간 범위 별로 분류될 수 있다. 카테고리 정보를 포함하는 데이터는 유사한 종류끼리 하나의 카테고리 명칭으로 분류될 수 있다. 위치 정보, 날씨 정보, 텍스트 정보 또는 얼굴 인식 정보를 포함하는 데이터는 사용자 컨텐츠로 분류될 수 있다. 위치 정보, 날씨 정보, 텍스트 정보 또는 얼굴 인식 정보는 자동으로 태그 정보를 생성할 수 있거나 사용자 지정에 의해 분류된 후 태그 정보로 생성될 수 있다. For example, in
도 3은 본 발명의 실시예에 따른 전자 장치의 태그 정보 처리 방법에 관한 순서도이다.3 is a flowchart illustrating a method of processing tag information in an electronic device according to an embodiment of the present invention.
전자 장치(100)는 301 단계에서, 사용자가 검색을 위한 검색 인터페이스를 선택하면 검색 인터페이스를 실행한다. 사용자는 터치 이벤트를 통하여 검색 인터페이스를 선택할 수 있다. 전자 장치(100)는 검색 인터페이스를 선택하는 터치 이벤트를 감지하여 검색 인터페이스를 실행한다.In
검색 인터페이스가 실행되면 전자 장치(100)는 303 단계에서, 검색 인터페이스에 적어도 하나 이상의 키워드 입력 영역, 태그 정보 영역 또는 검색 결과 표시 영역을 표시한다. 태그 정보 영역은 적어도 하나 이상의 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보를 포함한다. 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보는 각각 사용 빈도 또는 중요도 순으로 배치되고, 각 태그 정보마다 분류되어 특정 영역으로 표시될 수 있다. 또한, 시간 태그 정보는, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보는 각각 사용 빈도 또는 중요도에 따라 다른 태그 정보와 다른 색이나 다른 크기로 표시될 수 있다.When the search interface is executed, in
전자 장치(100)는 305 단계에서, 적어도 하나 이상의 키워드를 수신하거나 적어도 하나 이상의 태그 정보를 선택 또는 적어도 하나 이상의 키워드를 수신하고 적어도 하나 이상의 태그 정보를 선택할 수 있다. 사용자가 적어도 하나 이상의 키워드 입력 또는 적어도 하나 이상의 태그 정보를 선택하거나 적어도 하나 이상의 키워드 입력 및 적어도 하나 이상의 태그 정보를 선택하는 터치 이벤트를 발생시키면, 전자 장치(100)는 터치 이벤트를 감지하여 적어도 하나 이상의 키워드를 수신하거나 적어도 하나 이상의 태그 정보를 선택 또는 적어도 하나 이상의 키워드를 수신하고 적어도 하나 이상의 태그 정보를 선택할 수 있다. 선택된 태그 정보는 선택되지 않은 태그 정보와 다른 색이나 다른 크기로 표시될 수 있다.In
전자 장치(100)는 307 단계에서, 수신된 적어도 하나 이상의 키워드 및/또는 선택된 적어도 하나 이상의 태그 정보에 따라 데이터를 검색하고 검색 결과를 검색 결과 표시 영역에 표시할 수 있다.In
도 4는 본 발명의 실시예에 따른 전자 장치(100)의 태그 정보 처리 방법에 관한 도면이다.4 is a diagram illustrating a method of processing tag information in an
A 화면과 같이, 전자 장치(100)의 검색 인터페이스는 적어도 하나 이상의 키워드 입력 영역(410) 또는 태그 정보 영역(420)을 포함한다. 전자 장치(100)의 검색 인터페이스는 키워드 입력 영역(410)이 활성화되면 키워드를 입력하기 위한 키패드 영역(430)을 포함할 수 있다. 여기서, 태그 정보 영역(420)은 적어도 하나 이상의 시간 태그 정보 영역(421), 카테고리 태그 정보 영역(422) 또는 사용자 컨텐츠 태그 정보 영역(423)을 포함한다. 시간 태그 정보 영역(421)은 적어도 하나 이상의 시간 태그 정보를 포함한다. 카테고리 태그 정보 영역(422)은 적어도 하나 이상의 카테고리 태그 정보를 포함한다. 사용자 컨텐츠 태그 정보 영역(423)은 적어도 하나 이상의 사용자 컨텐츠 태그 정보를 포함한다. 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보는 각각 사용 빈도 또는 중요도 순으로 배치되고, 각 태그 정보마다 분류되어 특정 영역으로 표시될 수 있다. 또한, 시간 태그 정보는, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보는 각각 사용 빈도 또는 중요도에 따라 다른 태그 정보와 다른 색이나 다른 크기로 표시될 수 있다.Like screen A, the search interface of the
시간 태그 정보 영역(421)을 스크롤(scroll)하면 적어도 하나 이상의 시간 태그 정보를 검색할 수 있다. 카테고리 태그 정보 영역(422)을 스크롤(scroll)하면 적어도 하나 이상의 카테고리 태그 정보를 검색할 수 있다. 사용자 컨텐츠 태그 정보 영역(423)을 스크롤(scroll)하면 적어도 하나 이상의 사용자 컨텐츠 태그 정보를 검색할 수 있다.At least one or more time tag information may be searched by scrolling the time
B 화면과 같이, 전자 장치(100)의 검색 인터페이스는 적어도 하나 이상의 키워드 입력 영역(410), 태그 정보 영역(420) 또는 검색 결과 표시 영역(440)을 포함한다. 여기서, 태그 정보 영역(420)은 적어도 하나 이상의 시간 태그 정보 영역(421), 카테고리 태그 정보 영역(422) 또는 사용자 컨텐츠 태그 정보 영역(423)을 포함한다.Like screen B, the search interface of the
시간 태그 정보 영역(421)에서 적어도 하나 이상의 시간 태그 정보가 선택되면 선택된 시간 태그 정보는 선택되지 않은 시간 태그 정보와 다른 색이나 다른 크기로 표시될 수 있다. 카테고리 태그 정보 영역(422)에서 적어도 하나 이상의 카테고리 태그 정보가 선택되면 선택된 카테고리 태그 정보는 선택되지 않은 카테고리 태그 정보와 다른 색이나 다른 크기로 표시될 수 있다. 사용자 컨텐츠 태그 정보 영역(423)에서 적어도 하나 이상의 사용자 컨텐츠 태그 정보가 선택되면 선택된 카테고리 태그 정보는 선택되지 않은 카테고리 태그 정보와 다른 색이나 다른 크기로 표시될 수 있다. 또한, 선택된 태그 정보를 검색 결과 표시 영역(440)에 표시할 수 있다.When at least one or more time tag information is selected in the time
예를 들어, 사용자가 시간 태그 정보 영역(421)에서 '오늘' 이라는 시간 태그 정보를 선택하면 전자 장치(100)는 '오늘' 이라는 시간과 연관된 데이터를 검색하고, 사용자가 카테고리 태그 정보 영역(422)에서 '이미지'라는 카테고리 태그 정보를 선택하면 전자 장치(100)는 이미지와 연관된 카테고리를 검색할 수 있다. 또, 사용자가 사용자 컨텐츠 태그 정보 영역(423)에서 '홍길동'(사람 이름, 텍스트 정보)이라는 사용자 컨텐츠 태그 정보를 선택하면 전자 장치(100)는 텍스트 정보와 연관된 사용자 컨텐츠 태그 정보를 검색할 수 있다. 전자 장치(100)는 '오늘' 이라는 시간 태그 정보, '이미지' 라는 카테고리 태그 정보, '홍길동'이라는 사용자 컨텐츠 태그 정보를 논리 연산하여 전자 장치(100)의 데이터 중에서 오늘, 이미지, 홍길동과 관련된 데이터를 검색하고, 검색된 결과를 검색 결과 표시 영역(430)에 표시할 수 있다.For example, when the user selects time tag information'today' in the time
사용자가 적어도 하나 이상의 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보를 선택하면, 전자 장치(100)는 선택된 적어도 하나 이상의 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보 논리 곱(AND) 연산 또는 논리 합(OR) 연산을 통해 전자 장치(100) 내에 저장된 데이터를 검색하고 결과를 표시할 수 있다.When the user selects at least one or more time tag information, category tag information, or user content tag information, the
도 5는 본 발명의 다른 실시예에 따른 전자 장치(100)의 태그 정보 처리 방법에 관한 순서도이다.5 is a flowchart illustrating a method of processing tag information by the
전자 장치(100)는 501 단계에서, 전자 장치(100)에 저장된 데이터를 분류한다. 전자 장치(100)는 501 단계에서, 저장된 데이터를 적어도 하나 이상의 시간(Time) 별, 카테고리(Category) 별 또는 사용자 컨텐츠(User Contents) 별로 분류한다. 데이터는 적어도 하나 이상의 시간 정보, 위치 정보, 날씨 정보, 카테고리(Category) 정보, 텍스트 정보 또는 이미지 정보 획득시 피사체의 얼굴 인식 정보를 포함한다. 데이터는 데이터 생성 시 시간 정보, 데이터 생성 시의 위치 정보, 데이터의 명치 정보, 데이터의 속성 정보, 데이터의 텍스트 정보, 데이터 생성시 날씨 정보 중 적어도 하나 이상을 포함한다. 시간 정보를 포함하는 데이터는 시간 범위 별로 분류될 수 있다. 카테고리 정보를 포함하는 데이터는 유사한 종류끼리 하나의 카테고리 명칭으로 분류될 수 있다. 위치 정보, 날씨 정보, 텍스트 정보 또는 얼굴 인식 정보를 포함하는 데이터는 사용자 컨텐츠로 분류될 수 있다. 위치 정보, 날씨 정보, 텍스트 정보 또는 얼굴 인식 정보는 자동으로 태그 정보를 생성할 수 있거나 사용자 지정에 의해 분류된 후 태그 정보로 생성될 수 있다.The
전자 장치(100)는 503 단계에서, 분류된 데이터에 태그 정보를 생성한다. 전자 장치(100)는 503 단계에서, 적어도 하나 이상의 시간 별, 카테고리 별 또는 사용자 컨텐츠 별로 분류된 데이터에 태그 정보를 생성한다. 시간 정보를 포함하는 데이터는 시간 태그 정보가 생성되고, 카테고리 정보를 포함하는 데이터는 카테고리 데이터가 생성되며, 위치 정보, 날씨 정보, 텍스트 정보 또는 얼굴 인식 정보를 포함하는 데이터는 사용자 컨텐츠 태그 정보가 생성된다.The
전자 장치(100)는 505 단계에서, 사용자가 검색을 위한 검색 인터페이스를 선택하면 검색 인터페이스를 실행한다.In
전자 장치(100)는 507 단계에서, 검색 인터페이스가 실행되면 검색 인터페이스에 생성된 태그 정보(예를 들어, 적어도 하나 이상의 시간 태그 정보, 카테고리 태그 정보 또는 사용자 컨텐츠 태그 정보)를 표시한다.In
도 6은 본 발명의 실시예에 따른 전자 장치(100)의 태그 정보 처리 방법에 관한 순서도이다. 도 6은 본 발명의 실시예에 따른 전자 장치(100)의 태그 정보 처리 방법 중에서 데이터 분류에 관한 것이다.6 is a flowchart illustrating a method of processing tag information by the
전자 장치(100)는 601 단계에서, 사용자에 의해 새롭게 생성된 데이터가 있는지 판단한다. 사용자에 의해 새롭게 생성된 데이터가 있으면, 전자 장치(100)는 603 단계에서, 새롭게 생성된 데이터 및 기 저장된 데이터를 취합한다.In
전자 장치(100) 605 단계에서, 취합된 데이터를 적어도 하나 이상의 시간(Time) 별, 카테고리(Category) 별 또는 사용자 컨텐츠(User Contents) 별로 분류한다. 또는 사용자에 의해 새롭게 생성된 데이터가 없는 경우에도 전자 장치(100)는 기 저장된 데이터를 적어도 하나 이상의 시간(Time) 별, 카테고리(Category) 별 또는 사용자 컨텐츠(User Contents) 별로 분류한다. 여기서, 데이터는 적어도 하나 이상의 시간 정보, 위치 정보, 날씨 정보, 카테고리(Category) 정보, 텍스트 정보 또는 이미지 정보 획득시 피사체의 얼굴 인식 정보를 포함한다. 데이터는 데이터 생성 시 시간 정보, 데이터 생성 시의 위치 정보, 데이터의 명칭 정보, 데이터의 속성 정보, 데이터의 텍스트 정보, 데이터 생성시 날씨 정보 중 적어도 하나 이상을 포함한다.In
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art to which the present invention pertains, since the present invention may be implemented in other specific forms without changing the technical spirit or essential features thereof, the embodiments described above are illustrative in all respects and should be understood as non-limiting. Only. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.
Claims (20)
상기 전자 장치에 사용자의 사용에 의해 생성된 데이터 및 외부로부터 전송된 데이터를 저장하는 단계;
상기 전자 장치에 저장된 데이터를 시간, 카테고리, 및 사용자 컨텐츠 중 적어도 하나를 기준으로 분류하는 단계;
상기 분류된 데이터에 시간 태그 정보, 카테고리 태그 정보, 및 사용자 컨텐츠 태그 정보 중 적어도 하나를 자동으로 생성하는 단계;
검색 인터페이스를 실행하는 단계;및
상기 검색 인터페이스에 상기 생성한 태그 정보를 표시하는 단계를 포함하며,
상기 태그 정보를 표시하는 단계는,
상기 검색 인터페이스에 적어도 하나의 상기 시간 태그 정보를 포함하는 제 1 태그 정보 영역, 적어도 하나의 상기 카테고리 태그 정보를 포함하는 제 2 태그 정보 영역, 및 적어도 하나의 상기 사용자 컨텐츠 태그 정보를 포함하는 제 3 태그 정보 영역을 표시하는 단계를 포함하고,
상기 제 1 태그 정보 영역에서 시간 태그 정보를 선택하는 제 1 사용자 입력, 상기 제 2 태그 정보 영역에서 카테고리 태그 정보를 선택하는 제 2 사용자 입력, 및 상기 제 3 태그 정보 영역에서 사용자 컨텐츠 태그 정보를 선택하는 제 3 사용자 입력을 수신하는 단계;
상기 제 1 사용자 입력, 상기 제 2 사용자 입력, 및 상기 제 3 사용자 입력에 대응하여, 선택된 상기 시간 태그 정보, 상기 카테고리 태그 정보, 및 상기 사용자 컨텐츠 태그 정보에 대응하는 데이터를 확인하는 단계; 및
상기 확인된 데이터를 상기 검색 인터페이스의 검색 결과 표시 영역에 표시하는 단계를 포함하는 전자 장치의 태그 정보 처리 방법.
In the tag information processing method of an electronic device,
Storing data generated by a user's use and data transmitted from the outside in the electronic device;
Classifying data stored in the electronic device based on at least one of time, category, and user content;
Automatically generating at least one of time tag information, category tag information, and user content tag information in the classified data;
Executing a search interface; and
Displaying the generated tag information on the search interface,
Displaying the tag information,
A first tag information area including at least one time tag information in the search interface, a second tag information area including at least one category tag information, and a third including at least one user content tag information Including the step of displaying the tag information area,
A first user input for selecting time tag information in the first tag information area, a second user input for selecting category tag information in the second tag information area, and user content tag information in the third tag information area Receiving a third user input;
Checking data corresponding to the selected time tag information, the category tag information, and the user content tag information in response to the first user input, the second user input, and the third user input; And
And displaying the checked data in a search result display area of the search interface.
상기 수신하는 단계는
적어도 하나 이상의 키워드 검색 입력을 수신하는 단계를 더 포함하고,
상기 확인하는 단계는
상기 수신된 적어도 하나 이상의 키워드 검색에 대응하는 데이터를 확인하는 단계를 더 포함하는 전자 장치의 태그 정보 처리 방법.
The method of claim 1,
The receiving step
Further comprising the step of receiving at least one keyword search input,
The step of confirming
The method of processing tag information of an electronic device further comprising the step of checking data corresponding to the received search for at least one keyword.
상기 데이터는
적어도 하나 이상의 시간 정보, 위치 정보, 날씨 정보, 카테고리(Category) 정보, 텍스트 정보 또는 이미지 정보 획득시 피사체의 얼굴 인식 정보를 포함하는 전자 장치의 태그 정보 처리 방법.
The method of claim 1,
The above data is
A method of processing tag information of an electronic device including face recognition information of a subject when at least one or more time information, location information, weather information, category information, text information, or image information is acquired.
상기 저장된 데이터를 분류하는 단계는
상기 시간 정보를 포함하는 데이터를 시간 범위 별로 분류하거나, 유사한 종류끼리 하나의 카테고리 명칭으로 분류하거나, 적어도 하나 이상의 상기 위치 정보, 상기 날씨 정보, 상기 텍스트 정보 또는 상기 얼굴 인식 정보를 포함하는 상기 데이터를 상기 사용자 컨텐츠로 분류하는 전자 장치의 태그 정보 처리 방법.
The method of claim 4,
Classifying the stored data
The data including the time information is classified by time range, similar types are classified into one category name, or the data including at least one of the location information, the weather information, the text information, or the face recognition information A method of processing tag information of an electronic device classified as the user content.
상기 제 1 태그 정보 영역, 상기 제 2 태그 정보 영역, 상기 제 3 태그 정보 영역은 스크롤 동작으로 각각의 상기 시간 태그 정보, 상기 카테고리 태그 정보, 상기 사용자 컨텐츠 태그 정보를 검색할 수 있는 전자 장치의 태그 정보 처리 방법.
The method of claim 1,
The first tag information area, the second tag information area, and the third tag information area are tags of an electronic device capable of searching for each of the time tag information, the category tag information, and the user content tag information by a scroll operation. How to process information.
상기 전자 장치에 저장된 데이터를 검색하고 검색 결과를 상기 검색 결과 표시 영역에 표시하는 단계는
상기 선택된 태그 정보를 선택되지 않은 태그 정보와 다른 색 또는 다른 크기로 표시하는 전자 장치의 태그 정보 처리 방법.
The method of claim 1,
Searching for data stored in the electronic device and displaying the search result in the search result display area,
A method of processing tag information of an electronic device, displaying the selected tag information in a different color or a different size from the unselected tag information.
상기 태그 정보를 표시하는 단계는
적어도 하나 이상의 상기 시간 태그 정보, 상기 카테고리 태그 정보, 및 상기 사용자 컨텐츠 태그 정보를 중요도 또는 사용 빈도 순으로 배치하는 전자 장치의 태그 정보 처리 방법.
The method of claim 1,
Displaying the tag information
A method of processing tag information of an electronic device in which at least one of the time tag information, the category tag information, and the user content tag information are arranged in order of importance or frequency of use.
상기 저장된 데이터를 분류하는 단계는
사용자에 의해 새롭게 생성된 데이터가 있는지 판단하는 단계; 및
상기 새롭게 생성된 데이터가 있으면 상기 새롭게 생성된 데이터 및 기 저장된 데이터를 취합하여 분류하고, 상기 새롭게 생성된 데이터가 없으면 기 저장된 데이터를 분류하는 전자 장치의 태그 정보 처리 방법.
The method of claim 4,
Classifying the stored data
Determining whether there is data newly created by the user; And
The tag information processing method of an electronic device in which the newly generated data and pre-stored data are collected and classified, and if there is no newly generated data, pre-stored data is classified.
터치 이벤트를 감지하는 사용자 입력부;
상기 전자 장치에 사용자의 사용에 의해 생성된 데이터 및 외부로부터 전송된 데이터를 저장하며,
상기 전자 장치에 저장된 데이터를 시간, 카테고리, 및 사용자 컨텐츠 중 적어도 하나를 기준으로 분류하고,
상기 분류된 데이터에 시간 태그 정보, 카테고리 태그 정보, 및 사용자 컨텐츠 태그 정보 중 적어도 하나를 자동으로 생성하며,
상기 감지된 터치 이벤트에 응답하여 검색 인터페이스를 실행하고,
상기 검색 인터페이스에 적어도 하나의 상기 시간 태그 정보를 포함하는 제 1 태그 정보 영역, 적어도 하나의 상기 카테고리 태그 정보를 포함하는 제 2 태그 정보 영역, 및 적어도 하나의 상기 사용자 컨텐츠 태그 정보를 포함하는 제 3 태그 정보 영역을 표시하며,
상기 제 1 태그 정보 영역에서 시간 태그 정보를 선택하는 제 1 사용자 입력, 상기 제 2 태그 정보 영역에서 카테고리 태그 정보를 선택하는 제 2 사용자 입력, 및 상기 제 3 태그 정보 영역에서 사용자 컨텐츠 태그 정보를 선택하는 제 3 사용자 입력을 수신하고,
상기 제 1 사용자 입력, 상기 제 2 사용자 입력, 및 상기 제 3 사용자 입력에 대응하여, 선택된 상기 시간 태그 정보, 상기 카테고리 태그 정보, 및 상기 사용자 컨텐츠 태그 정보에 대응하는 데이터를 확인하며,
상기 확인된 데이터를 상기 검색 인터페이스의 검색 결과 표시 영역에 표시하는 제어부; 및
상기 검색 인터페이스를 표시하는 표시부를 포함하는 전자 장치.
In the electronic device,
A user input unit detecting a touch event;
Stores data generated by the user's use and data transmitted from the outside in the electronic device,
Classifying data stored in the electronic device based on at least one of time, category, and user content,
At least one of time tag information, category tag information, and user content tag information is automatically generated in the classified data,
Execute a search interface in response to the sensed touch event,
A first tag information area including at least one time tag information in the search interface, a second tag information area including at least one category tag information, and a third including at least one user content tag information Displays the tag information area,
A first user input for selecting time tag information in the first tag information area, a second user input for selecting category tag information in the second tag information area, and user content tag information in the third tag information area Receiving a third user input to
In response to the first user input, the second user input, and the third user input, check data corresponding to the selected time tag information, the category tag information, and the user content tag information,
A control unit for displaying the checked data in a search result display area of the search interface; And
An electronic device including a display unit displaying the search interface.
상기 제어부는
적어도 하나 이상의 키워드 검색 입력을 수신하고,
상기 수신된 적어도 하나 이상의 키워드 검색에 대응하는 데이터를 확인하는 전자 장치.
The method of claim 11,
The control unit
Receive at least one keyword search input,
An electronic device that checks data corresponding to the received search for at least one keyword.
상기 데이터는
적어도 하나 이상의 시간 정보, 위치 정보, 날씨 정보, 카테고리(Category) 정보, 텍스트 정보 또는 이미지 정보 획득시 피사체의 얼굴 인식 정보를 포함하는 전자 장치.
The method of claim 11,
The above data is
An electronic device including face recognition information of a subject when at least one or more time information, location information, weather information, category information, text information, or image information is acquired.
상기 제어부는
상기 시간 정보를 포함하는 데이터를 시간 범위 별로 분류하거나, 유사한 종류끼리 하나의 카테고리 명칭으로 분류하거나, 적어도 하나 이상의 상기 위치 정보, 상기 날씨 정보, 상기 텍스트 정보 또는 상기 얼굴 인식 정보를 포함하는 상기 데이터를 상기 사용자 컨텐츠로 분류하는 전자 장치.
The method of claim 14,
The control unit
The data including the time information is classified by time range, similar types are classified into one category name, or the data including at least one of the location information, the weather information, the text information, or the face recognition information An electronic device classifying the user content.
상기 제 1 태그 정보 영역, 상기 제 2 태그 정보 영역, 상기 제 3 태그 정보 영역은 스크롤 동작으로 각각의 상기 시간 태그 정보, 상기 카테고리 태그 정보, 상기 사용자 컨텐츠 태그 정보를 검색할 수 있는 전자 장치.
The method of claim 11,
The first tag information area, the second tag information area, and the third tag information area are capable of searching for each of the time tag information, the category tag information, and the user content tag information through a scroll operation.
상기 제어부는
상기 선택된 태그 정보를 선택되지 않은 태그 정보와 다른 색 또는 다른 크기로 표시하게 하는 전자 장치.
The method of claim 11,
The control unit
An electronic device configured to display the selected tag information in a different color or a different size than the unselected tag information.
상기 제어부는
적어도 하나 이상의 상기 시간 태그 정보, 상기 카테고리 태그 정보, 및 상기 사용자 컨텐츠 태그 정보를 중요도 또는 사용 빈도 순으로 배치하게 하는 전자 장치.
The method of claim 11,
The control unit
An electronic device configured to arrange at least one of the time tag information, the category tag information, and the user content tag information in order of importance or frequency of use.
상기 제어부는
사용자에 의해 새롭게 생성된 데이터가 있는지 판단하고 상기 새롭게 생성된 데이터가 있으면 상기 새롭게 생성된 데이터 및 기 저장된 데이터를 취합하여 분류하며, 상기 새롭게 생성된 데이터가 없으면 기 저장된 데이터를 분류하는 전자 장치.The method of claim 14,
The control unit
An electronic device that determines whether there is newly created data by a user, collects and classifies the newly created data and pre-stored data if there is the newly created data, and classifies pre-stored data if there is no newly created data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130100699A KR102138728B1 (en) | 2013-08-23 | 2013-08-23 | Electronic Device And Method For Processing Tag Information Thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130100699A KR102138728B1 (en) | 2013-08-23 | 2013-08-23 | Electronic Device And Method For Processing Tag Information Thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150022588A KR20150022588A (en) | 2015-03-04 |
KR102138728B1 true KR102138728B1 (en) | 2020-08-13 |
Family
ID=53020555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130100699A Active KR102138728B1 (en) | 2013-08-23 | 2013-08-23 | Electronic Device And Method For Processing Tag Information Thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102138728B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210101583A (en) | 2020-02-10 | 2021-08-19 | 삼성전자주식회사 | Electronic device and method for operating contents using the same |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002017066A1 (en) | 2000-08-22 | 2002-02-28 | Vast Video, Incorporated | Integrated system and method for processing video |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101373284B1 (en) * | 2007-05-04 | 2014-03-12 | 삼성전자 주식회사 | Method and data processing apparatus for displaying time-based data |
KR101789234B1 (en) * | 2011-05-30 | 2017-11-20 | 삼성에스디에스 주식회사 | Data tagging apparatus and method thereof, and data search method using the same |
KR20120140291A (en) * | 2011-06-21 | 2012-12-31 | 삼성전자주식회사 | Terminal and method for displaying data thereof |
-
2013
- 2013-08-23 KR KR1020130100699A patent/KR102138728B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002017066A1 (en) | 2000-08-22 | 2002-02-28 | Vast Video, Incorporated | Integrated system and method for processing video |
Also Published As
Publication number | Publication date |
---|---|
KR20150022588A (en) | 2015-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10841265B2 (en) | Apparatus and method for providing information | |
KR102206394B1 (en) | Electronic Device And Method for Setting Task Of The Same | |
AU2010327453B2 (en) | Method and apparatus for providing user interface of portable device | |
CN105718500B (en) | Text-based content management method and device for electronic equipment | |
KR102182297B1 (en) | Method Of Finger Scan And Mobile Terminal Supporting The Same | |
WO2019104478A1 (en) | Method and terminal for recognizing screenshot text | |
KR20160021637A (en) | Method for processing contents and electronics device thereof | |
US11079926B2 (en) | Method and apparatus for providing user interface of portable device | |
US9584644B2 (en) | Electronic device and method for handling incoming call of the same | |
US20170371535A1 (en) | Device, method and graphic user interface used to move application interface element | |
CN112214138A (en) | Method for displaying graphical user interface based on gestures and electronic equipment | |
US20150019522A1 (en) | Method for operating application and electronic device thereof | |
KR102138728B1 (en) | Electronic Device And Method For Processing Tag Information Thereof | |
KR102584981B1 (en) | Method for Outputting Screen according to Force Input and the Electronic Device supporting the same | |
KR101599892B1 (en) | Apparatus for managing contents in electronic device and electric device controlled according to the method | |
US20150095779A1 (en) | Electronic device and method for providing contents of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20130823 |
|
PG1501 | Laying open of application | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20180823 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20130823 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20190910 Patent event code: PE09021S01D |
|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20200309 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20190910 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
X091 | Application refused [patent] | ||
AMND | Amendment | ||
PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20200309 Comment text: Decision to Refuse Application Patent event code: PX09012R01I Patent event date: 20191111 Comment text: Amendment to Specification, etc. |
|
PX0701 | Decision of registration after re-examination |
Patent event date: 20200427 Comment text: Decision to Grant Registration Patent event code: PX07013S01D Patent event date: 20200401 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I Patent event date: 20200309 Comment text: Decision to Refuse Application Patent event code: PX07011S01I Patent event date: 20191111 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I |
|
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20200722 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20200723 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |