[go: up one dir, main page]

KR20150067489A - 전자 장치에서 입력기 제공 방법 및 장치 - Google Patents

전자 장치에서 입력기 제공 방법 및 장치 Download PDF

Info

Publication number
KR20150067489A
KR20150067489A KR1020130152922A KR20130152922A KR20150067489A KR 20150067489 A KR20150067489 A KR 20150067489A KR 1020130152922 A KR1020130152922 A KR 1020130152922A KR 20130152922 A KR20130152922 A KR 20130152922A KR 20150067489 A KR20150067489 A KR 20150067489A
Authority
KR
South Korea
Prior art keywords
language
text input
information
detected
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020130152922A
Other languages
English (en)
Inventor
이철민
이해동
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130152922A priority Critical patent/KR20150067489A/ko
Priority to US14/565,862 priority patent/US20150161099A1/en
Publication of KR20150067489A publication Critical patent/KR20150067489A/ko
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/263Language identification
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/454Multi-language systems; Localisation; Internationalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/58Details of telephonic subscriber devices including a multilanguage function
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/70Details of telephonic subscriber devices methods for entering alphabetical characters, e.g. multi-tap or dictionary disambiguation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 전자 장치에서 오브젝트로부터 검출된 언어 정보에 기초하여 입력기의 언어를 자동 설정하는 방법 및 장치에 관한 것으로, 이러한 본 발명의 실시 예에 따른 전자 장치에서 입력기 제공 방법은, 어플리케이션을 실행하는 과정과, 상기 어플리케이션에서 오브젝트를 인식하는 과정과, 상기 오브젝트로부터 적어도 하나의 언어 정보를 검출하는 과정, 상기 텍스트 입력기의 언어를 상기 검출된 언어 정보에 기반하여 설정하는 과정, 및 상기 언어가 설정된 텍스트 입력기를 표시하는 과정을 포함할 수 있다. 본 발명은 상기한 한 실시 예를 기반으로 다양한 다른 실시 예들이 가능하다.

Description

전자 장치에서 입력기 제공 방법 및 장치{Method and apparatus for providing input method editor in a electronic devices}
본 발명은 전자 장치에서 입력기(IME, Input Method Editor)를 이용한 텍스트 입력 시 언어 전환에 의한 텍스트 입력을 보다 편리하게 지원하기 위한 전자 장치에서 입력기를 제공하는 방법 및 장치에 관한 것이다.
최근 디지털 기술의 발달과 함께 통신 및 개인정보 처리가 가능한 다양한 전자 장치(electronic device)(예컨대, 이동통신 단말기, PDA(Personal Digital Assistant), 전자수첩, 스마트 폰(Smart Phone), 태블릿 PC(Personal Computer) 등)가 출시되고 있다. 이러한 전자 장치에서는 하나 또는 그 이상의 언어들에 기초하여 텍스트를 입력할 수 있는 입력기(예컨대, IME(Input Method Editor))를 지원한다. 적어도 하나의 언어는 중국어, 일본어, 독일어, 스페인어 등 다양한 언어로 지원될 수 있다.
전자 장치는 입력기에서 텍스트 입력을 위한 언어를 지원함에 있어서, 사용자에 의해 마지막으로 설정된 언어를 기본 언어로 지원할 수 있다. 그리고 사용자는 입력기를 통해 상기 기본 언어에 의해 텍스트를 입력하는 중에 언어를 전환하는 조작을 통해 다른 언어에 기초하여 텍스트를 입력할 수 있다.
전자 장치에서 입력기의 기본 언어를 다른 언어로 전환하기 위해서는 사용자가 직접 특정키(예컨대, 언어 전환키 등)를 통해 하나하나 확인하면서 해당 국가의 언어로 전환해 주어야 한다. 또는, 전자 장치에서 기본 언어를 다른 언어로 전환하기 위해서는 사용자가 직접 입력기의 옵션(option) 설정에서 입력 언어 및 입력기의 종류를 변경해 주어야 한다
또한 전자 장치에 설치된 언어 이외에 다른 언어를 입력하고자 하는 경우, 사용자는 입력기에서 해당 언어를 지원하기 위한 언어 검색, 설치 및 설정 과정을 진행한 후 해당 언어에 의한 텍스트 입력이 가능하다. 즉, 사용자는 특정 언어를 추가적으로 설정하기 위한 시간을 할애해야 하는 불편함이 있다. 또한 전자 장치에서 등록된 각 언어들에 대한 전환 동작이 빈번하게 일어나는 텍스트 입력 환경의 경우, 사용자가 전자 장치에 등록된 언어들을 직접 하나하나 확인하면서 수시로 전환 및 설정해야 하는 불편함이 있다.
본 발명의 실시 예에 따르면, 전자 장치에서 입력기(IME)를 통해 언어 전환에 따른 텍스트 입력을 보다 편리하고 빠르게 지원할 수 있는 장치 및 그 운영 방법을 제공할 수 있다.
본 발명의 실시 예에서 전자 장치는 정보통신기기, 멀티미디어기기, 웨어러블(wearable) 기기 및 그에 대한 응용기기와 같이 AP(Application Processor), GPU(Graphic Processing Unit), 및 CPU(Central Processing Unit) 중 하나 또는 그 이상을 사용하는 모든 장치를 포함할 수 있다.
본 발명의 실시 예에 따르면, 전자 장치의 텍스트 입력 모드에서 언어 인식을 통해 입력기의 언어 전환 및 그에 의한 텍스트 입력을 보다 효과적으로 지원할 수 있는 장치 및 그 운영 방법을 제공할 수 있다.
본 발명의 실시 예에 따르면, 전자 장치에서 언어별 텍스트 입력을 지원하기 위한 최적의 환경을 구현하여 사용자의 편의성 및 전자 장치의 사용성을 향상시킬 수 있는 장치 및 그 운영 방법을 제공할 수 있다.
본 발명의 실시 예에 따른 전자 장치에서 입력기를 제공하는 방법은, 어플리케이션을 실행하는 과정, 상기 어플리케이션에서 오브젝트를 인식하는 과정, 상기 오브젝트로부터 적어도 하나의 언어 정보를 검출하는 과정, 상기 텍스트 입력기의 언어를 상기 검출된 언어 정보에 기반하여 설정하는 과정, 및 상기 언어가 설정된 텍스트 입력기를 표시하는 과정을 포함할 수 있다.
본 발명의 실시 예에 따르면, 상기 방법을 하나 또는 그 이상의 프로세서들에서 실행시키기 위한 하나 또는 그 이상의 프로그램들을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 포함할 수 있다.
본 발명의 실시 예에 따른 전자 장치는, 실행되는 어플리케이션에 대응하는 오브젝트를 표시하는 표시부, 사용자 입력을 감지하는 터치패널, 및 상기 오브젝트를 인식하고, 상기 오브젝트로부터 적어도 하나의 언어 정보를 검출하고, 상기 검출된 언어 정보에 기반하여 텍스트 입력기의 언어를 설정하고, 상기 언어가 설정된 텍스트 입력기를 표시하도록 제어하는 제어부를 포함할 수 있다.
본 발명의 실시 예에 따른 전자 장치는, 실행되는 어플리케이션에 대응하는 오브젝트를 표시하는 표시부, 사용자 입력을 감지하는 터치패널, 하나 또는 그 이상의 프로그램들이 저장되는 저장부, 및 상기 하나 또는 그 이상의 프로그램들을 실행하여 상기 전자 장치의 텍스트 입력기의 언어 설정을 제어하는 하나 또는 그 이상의 프로세서들을 포함하고, 상기 하나 또는 그 이상의 프로그램들은, 어플리케이션을 실행하는 과정, 상기 어플리케이션에서 오브젝트를 인식하는 과정, 상기 오브젝트로부터 적어도 하나의 언어를 검출하는 과정, 상기 텍스트 입력기의 언어를 상기 검출된 언어 정보에 기반하여 설정하는 과정, 및 상기 언어가 설정된 텍스트 입력기를 표시하는 과정을 실행하는 프로그램을 포함할 수 있다.
전술한 바와 같은 내용들은 당해 분야 통상의 지식을 가진 자가 후술되는 본 발명의 구체적인 설명으로부터 보다 잘 이해할 수 있도록 하기 위하여 본 발명의 실시 예에 따른 특징들 및 기술적인 장점들을 다소 넓게 약술한 것이다. 이러한 특징들 및 장점들 이외에도 본 발명의 청구범위의 주제를 형성하는 추가적인 특징들 및 장점들이 후술되는 본 발명의 실시 예에 따른 구체적인 설명으로부터 잘 이해될 것이다.
본 발명의 실시 예에서는 전자 장치에서 다국어를 지원하는 입력기(IME)에 의한 텍스트 입력 효율을 높일 수 있다. 본 발명의 실시 예에 따르면, 다국어를 지원하는 입력기에서 언어 전환에 의한 텍스트 입력을 보다 편리하게 지원할 수 있다.
본 발명의 실시 예에 따르면, 전자 장치의 텍스트 입력 모드에서 언어 전환에 의한 텍스트 입력이 필요한 경우, 언어 인식을 통해 전환 대상의 언어를 자동 인식할 수 있다. 그리고 전자 장치는 인식된 언어를 기반으로 입력기의 언어를 자동으로 전환 설정하여 언어 전환에 의한 텍스트 입력을 보다 편리하고 빠르게 지원할 수 있다. 본 발명의 실시 예에 따르면 언어 전환에 의한 텍스트 입력이 필요한 환경에서 입력기의 자동 언어 전환 및 설정을 지원함에 따라, 입력기의 언어 전환을 위해 소요되는 언어 설정 시간을 줄일 수 있고, 사용자의 언어를 전환하기 위해 입력기의 옵션 설정을 조작해야 하는 불편함을 해소할 수 있다.
본 발명의 실시 예에 따르면, 전자 장치에서 보다 효율적인 언어별 텍스트 입력을 지원할 수 있어, 사용자의 편의성을 향상시키고, 전자 장치의 사용성, 편의성, 접근성 및 경쟁력을 향상시키는데 기여할 수 있다.
도 1은 본 발명의 실시 예에 따른 전자 장치의 구성을 개략적으로 도시한 도면이다.
도 2a 내지 도 2d는 본 발명의 실시 예에 따른 전자 장치에서 입력기가 제공되는 동작을 설명하기 위한 예시도들이다.
도 3a 내지 도 3c는 본 발명의 실시 예에 따른 전자 장치에서 입력기의 언어 변환을 지원하기 위한 동작 예시도들이다.
도 4는 본 발명의 실시 예에 따른 전자 장치에서 입력기의 언어 변환을 지원하기 위한 제어 방법을 도시한 흐름도이다.
도 5는 본 발명의 실시 예에 따른 전자 장치에서 입력기의 언어 변환을 지원하기 위한 다른 동작 예시를 도시한 도면이다.
도 6은 본 발명의 실시 예에 따른 전자 장치에서 입력기의 언어 변환을 지원하기 위한 제어 방법을 도시한 흐름도이다.
이하, 첨부된 도면들을 참조하여 본 발명의 다양한 실시 예들을 설명한다. 이때, 첨부된 도면들에서 동일한 구성 요소에 대해서는 가능한 동일하거나 유사한 참조부호로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 하기의 설명에서는 본 발명의 다양한 실시 예들에 따른 동작을 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.
본 발명의 실시 예에서 사용될 수 있는“포함한다”, “포함할 수 있다” 등의 표현은 개시된 해당 기능, 동작, 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작, 구성요소 등을 제한하지 않는다. 또한 본 발명의 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한 본 발명의 실시 예에서 “및/또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, A 및/또는 B는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
또한 본 발명의 실시 예에서 “제 1”, “제 2”, “첫째”, “둘째” 등의 표현들이 본 발명의 실시 예에 따른 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 실시 예에 따른 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다. 본 발명의 실시 예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명의 실시 예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 발명의 실시 예에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch)) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들어, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 또는 보안 기기, 또는 산업용 또는 가정용 로봇 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예컨대, 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 실시 예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한 본 발명의 실시 예에 따른 전자 장치가 전술한 기기들에 한정되지 않음은 당업자에게 자명하다..
이하, 본 발명의 실시 예에 따른 전자 장치의 구성과 그의 운영 제엉 방법에 대하여 도면들을 참조하여 살펴보기로 한다. 본 발명의 실시 예에 따른 전자 장치의 구성과 그의 운용 제어 방법이 하기에서 기술하는 내용에 제한되거나 한정되는 것은 아니므로 하기의 실시 예들에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다.
도 1은 본 발명의 실시 예에 따른 전자 장치의 구성을 개략적으로 도시한 도면이다.
도 1을 참조하면, 전자 장치는 터치스크린(110), 표시부(112), 터치패널(114), 통신부(120), 저장부(130), 전원공급부(140), 그리고 제어부(100)의 구성을 포함할 수 있다.
본 발명의 실시 예에 따른 전자 장치는 도 1에 도시된 구성들보다 많은 구성들을 가지거나, 또는 그보다 적은 구성들을 가지는 것으로 구현될 수 있다. 예를 들어, 본 발명의 실시 예에 따른 전자 장치는 사용자의 다양한 입력을 검출하기 위한 다양한 센서(예컨대, 음성인식 센서(voice recognition sensor), 적외선 센서(infrared sensor), 가속도 센서(acceleration sensor), 자이로 센서(gyro sensor), 지자기 센서(terrestrial magnetism sensor), 조도 센서(illuminance sensor), 컬러 센서(color sensor), 이미지 센서(image sensor), 온도 센서(temperature sensor), 근접 센서(proximity sensor), 동작인식 센서(motion recognition sensor) 등), 무선 인터넷을 지원하기 위한 무선 랜(WLAN, Wireless Local Area Net work) 모듈, 다양한 근거리 통신 기술(예컨대, 블루투스(Bluetooth), 블루투스 저 에너지(BLE, Bluetooth Low Energy), NFC(Near Field Communication), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association) 등)을 지원하기 위한 근거리 통신 모듈, 그리고 방송 채널(예컨대, 위성 방송 채널, 지상파 방송 채널 등)을 통하여 외부의 방송 관리 서버로부터 방송 신호를 수신하는 방송 수신 모듈 등의 구성을 포함할 수 있다.
터치스크린(110)은 입력 기능과 출력(표시) 기능을 동시에 수행하는 입출력 수단을 나타내며, 표시부(112)와 터치패널(114)을 포함하여 구성할 수 있다. 본 발명의 실시 예에서 터치스크린(110)은 표시부(112)를 통해 전자 장치 운영에 따른 다양한 영상을 표시할 수 있고, 표시부(112)를 통해 특정 영상을 표시하는 중에 터치패널(114)를 통해 사용자 입력(예컨대, 터치(touch) 또는 호버(hover) 기반의 터치 이벤트)을 감지할 수 있다. 터치스크린(110)은 사용자 입력이 감지되면, 상기 사용자 입력에 따른 입력신호를 상기 제어부(1700)에게 전달할 수 있다. 그러면, 제어부(100)는 전달되는 사용자 입력을 구분하고, 구분된 사용자 입력에 따른 동작 수행을 제어할 수 있다.
표시부(112)는 제어부(100)의 제어 하에 전자 장치에서 처리되는 다양한 영상을 표시(출력)할 수 있다. 다양한 영상은 예컨대, 메신저 화면, 웹 페이지 화면, 잠금 화면, 홈 화면, 어플리케이션 목록 화면(메뉴 화면), 문자입력 화면, 메일작성 화면, SNS(Social Networking Service) 화면 등이 될 수 있다. 표시부(112)는 제어부(100)의 제어 하에 처리(예컨대, 디코딩(Decoding))된 정보가 메모리(예컨대, 표시부(112)의 프레임 버퍼)에 저장되면, 상기 메모리에 저장된 정보를 표시할 수 있다.
본 발명의 실시 예에서 표시부(112)는 사용자 입력에 따라 선택되는 어플리케이션의 어플리케이션 윈도우를 제어부(100)의 제어 하에 표시할 수 있다. 또한 표시부(112)는 어플리케이션 윈도우를 통해 어플리케이션 사용에 대응하는 다양한 오브젝트들(예컨대, 도메인, 데이터, 이미지, 텍스트 등)을 제어부(100)의 제어 하에 표시할 수 있다. 또한 표시부(112)는 어플리케이션 사용에 따른 입력기(예컨대, IME(Input Method Editor))를 제어부(100)의 제어 하에 표시할 수 있다. 본 발명의 다양한 실시 예에서 상기 입력기는 전자 장치의 표시부(112)를 통해 표시되는 소프트 키패드(soft keypad)와 전자 장치의 외부(예컨대, 바닥, 벽 등)에 투사되는 적외선 키보드(또는 레이저 키보드)를 포함할 수 있다. 본 발명의 실시 예에서는 상기 입력기가 소프트 키패드 형태를 가지는 것을 대표적인 예시로 설명하기로 하며, 이하에서는 입력기 또는 텍스트 입력기라 명명하기로 한다.
또한 표시부(112)는 입력기를 이용한 사용자 입력에 따른 데이터(예컨대, 텍스트)를 제어부(100)의 제어 하에 표시할 수 있다. 또한 표시부(112)는 하나 또는 그 이상의 언어들을 선택할 수 있는 언어 선택 윈도우를 제어부(100)의 제어 하에 표시할 수 있다. 또한 표시부(112)는 표시된 언어 선택 윈도우에서 사용자 입력에 따라 선택되는 특정 언어 기반의 텍스트 입력기를 제어부(100)의 제어 하에 표시할 수 있다. 본 발명의 실시 예에서 표시부(112)에 표시(출력)되는 다양한 화면 예시들에 대해 후술될 것이다.
표시부(112)는 액정 디스플레이(LCD, Liquid Crystal Display), 박막 트랜지스터 액정 디스플레이(TFT LCD, Thin Film Transistor-LCD), 발광 다이오드(LED, Light Emitting Diode), 유기 발광 다이오드(OLED, Organic LED), 능동형 OLED(AMOLED, Active Matrix OLED), 플렉서블 디스플레이(flexible display), 벤디드 디스플레이(bended display), 그리고 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 이들 중 일부 디스플레이는 투명형 또는 광투명형으로 구성되는 투명 디스플레이(transparent display)로 구현될 수 있다.
터치패널(114)은 터치스크린(110) 표면에 접촉하는 다양한 사용자 입력을 감지할 수 있다. 예를 들어, 터치패널(114)은 예컨대, 탭(tap), 드래그(drag), 스윕(sweep), 플릭(flick), 드래그앤드롭(drag&drop), 드로잉(drawing), 하나의 터치 포인트 기반의 싱글터치(single-touch), 다중 터치 포인트들 기반의 멀티터치(multi-touch), 제스처(gesture)(예컨대, 필기), 스크롤링(scrolling), 플리킹(flicking), 호버링(hovering) 등과 같은 사용자 입력을 감지할 수 있다.
터치패널(114)은 표시부(112)의 특정 부위에 가해진 압력 또는 표시부(112)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치패널(114)은 터치되는 위치 및 면적뿐만 아니라, 적용한 터치 방식에 따라 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 예를 들어, 터치패널(114)은 정전용량 방식(Capacitive overlay), 저항막 방식(Resistive overlay), 적외선 감지 방식(Infrared beam) 등의 방식으로 구현될 수 있다.
한 실시 예에 따르면, 터치패널은(114)은 사용자의 입력 제스처에 응답하여 그에 대응하는 신호(들)를 발생하고, 해당 신호(들)를 A/D(Analog to Digital) 변환하여 제어부(100)로 전달할 수 있다. 상기 제스처에 대응하는 신호(들)는 하나 또는 그 이상의 터치 좌표(x, y)들을 포함할 수 있다.
본 발명의 실시 예에서 터치패널(114)은 어플리케이션 실행과 사용에 대한 사용자 입력을 감지할 수 있다. 또한 터치패널(114)은 입력기 실행과 사용에 따른 사용자 입력을 감지할 수 있다. 또한 터치패널(114)은 언어 선택 윈도우에서 텍스트 입력기의 언어를 전환하는 사용자 입력(예컨대, 언어 선택)을 감지할 수 있다.
통신부(120)는 제어부(100)의 제어 하에, 네트워크를 통해 외부 장치(예컨대, 서버 또는 다른 전자 장치)와 음성통화, 화상통화 또는 데이터통신을 수행할 수 있다.
통신부(120)는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF(Radio Frequency) 송신기와 수신되는 신호를 저 잡음 증폭 및 하강 변환하는 RF 수신기 등을 포함할 수 있다. 또한 통신부(120)는 이동통신모듈(예컨대, 3세대(3-Generation)이동통신모듈, 3.5세대이동통신모듈 또는 4세대이동통신모듈 등), 디지털방송모듈(예컨대, DMB(Digital Multimedia Bluetooth)모듈) 및 근거리 통신모듈(예컨대, 와이파이(Wi-Fi)모듈, 블루투스 모듈, NFC(Near Field Communication)모듈 등)을 포함할 수 있다.
저장부(130)는 부팅 프로그램, 운영체제 및 어플리케이션들을 저장할 수 있다. 저장부(130)는 제어부(170)에 의해 실행되는 하나 또는 그 이상의 프로그램들(one or more programs)을 저장할 수 있고, 입/출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 입/출력되는 데이터들은 예를 들어, 메신저 데이터(예컨대, 대화 데이터), 컨택트(contact) 정보(예컨대, 유선 또는 무선 전화번호 등), 메시지, 컨텐츠(예컨대, 이미지, 동영상, 오디오) 등을 포함할 수 있다. 본 발명의 실시 예에 따르면, 저장부(130)는 다양한 다국어 및 그에 대응되는 입력기를 저장할 수 있고, 다국어별 입력기를 지원하기 위한 언어 인식을 수행하기 위한 명령어를 저장할 수 있다. 또한 저장부(130)는 텍스트 입력기의 언어 변환을 수행하기 위한 명령어를 저장할 수 있다.
상기 하나 또는 그 이상의 프로그램들은 어플리케이션을 실행하는 과정, 상기 어플리케이션에서 오브젝트를 인식하는 과정, 상기 오브젝트로부터 적어도 하나의 언어를 검출하는 과정, 상기 텍스트 입력기의 언어를 상기 검출된 언어 정보에 기반하여 설정하는 과정, 및 상기 언어가 설정된 텍스트 입력기를 표시하는 과정을 실행하는 프로그램을 포함할 수 있다. 또한 상기 하나 또는 그 이상의 프로그램들은 상기 어플리케이션의 대화 목록을 표시하는 과정, 상기 대화 목록을 선택하는 사용자 입력을 감지하는 과정, 상기 사용자 입력에 대응하는 대화 목록의 정보를 판단하는 과정, 상기 대화 목록의 정보로부터 언어 정보를 검출하는 과정, 및 상기 검출된 언어 정보를 기반으로 텍스트 입력기의 언어를 설정하는 과정을 실행하는 프로그램을 포함할 수 있다. 또한 상기 하나 또는 그 이상의 프로그램들은 상기 어플리케이션 윈도우(예컨대, 대화 윈도우) 표시 또는 사용자의 텍스트 입력기 요청에 응답하여 상기 설정된 텍스트 입력기를 호출(invoke)하여 표시하는 과정을 실행하는 프로그램을 포함할 수 있다.
전원공급부(140)는 제어부(100)의 제어 하에 외부의 전원, 내부의 전원을 인가 받아 상기 전자 장치의 각 구성들의 동작에 필요한 전원을 공급할 수 있다.
제어부(100)는 전자 장치의 전반적인 동작 및 전자 장치의 내부 구성들간의 신호 흐름을 제어할 수 있다. 예를 들어, 제어부(100)는 전자 장치의 음성 통신, 데이터 통신, 화상 통신 등에 관련된 제어를 수행할 수 있다. 또한 제어부(100)는 본 발명의 실시 예에 따른 다국어에 대한 자동 언어 변환을 통한 텍스트 입력을 지원하는 것과 관련된 동작을 제어할 수 있다. 제어부(100)는 상기 저장부(130)에 저장되는 하나 또는 그 이상의 프로그램을 실행하여 본 발명의 실시 예에 따른 입력기의 언어 설정 및 이에 의한 다국어 기반의 텍스트 입력을 지원하도록 제어하는 하나 또는 그 이상의 프로세서들(one or more processor)로 구현될 수 있다.
본 발명의 실시 예에서 제어부(100)는 어플리케이션 실행을 위한 사용자 입력에 응답하여 해당 어플리케이션의 실행을 제어할 수 있다. 제어부(100)는 실행하는 어플리케이션에 대한 어플리케이션 윈도우를 표시부(112)에 표시하도록 제어할 수 있다. 예를 들어, 제어부(100)는 어플리케이션 윈도우를 통해 사용자 입력에 대응하여 실행되는 어플리케이션이 표시되도록 제어할 수 있다.
제어부(100)는 어플리케이션 윈도우에서 상기 실행된 어플리케이션에 대응되는 오브젝트를 인식할 수 있다. 상기 오브젝트는 어플리케이션 윈도우 내의 도메인, 문자, 이미지, 텍스트 등이 포함될 수 있다.
제어부(100)는 인식된 오브젝트로부터 하나 또는 그 이상의 언어 정보들을 검출할 수 있다. 제어부(100)는 오브젝트로부터 하나 또는 그 이상의 언어 정보들을 검출하면, 상기 실행된 어플리케이션에서 텍스트 입력을 지원하기 위한 텍스트 입력기의 언어를 상기 검출된 언어 정보에 기반하여 설정할 수 있다. 예를 들어, 제어부(100)는 상기 오브젝트로부터 하나 또는 그 이상의 언어 정보들이 검출되면, 상기 검출된 언어 정보들에 대응되는 언어들 중 사용자가 텍스트 입력기의 언어로 설정할 수 있는 언어 선택 윈도우를 표시부(112)에 표시되도록 제어할 수 있다. 상기 언어 선택 윈도우는 상기 검출된 언어 정보에 대응하는 적어도 하나의 언어를 선택(전환)할 수 있는 인터페이스(예컨대, 검출된 언어 정보에 따라 일정 영역으로 구분되어 언어 선택을 위한 사용자 입력을 수신할 수 있는 인터페이스)를 포함할 수 있다. 제어부(100)는 언어 선택 윈도우에서 특정 언어를 선택하는 사용자 입력을 감지하면, 상기 사용자 입력에 대응하여 현재 제공되는 텍스트 입력기의 언어를 상기 선택된 특정 언어로 변경(설정)할 수 있다.
또는 제어부(100)는 텍스트 입력기의 언어를 변경할 시 해당 언어에 의한 텍스트 입력을 지원하기 위하여 현재의 텍스트 입력기를 상기 선택된 특정 언어 기반의 텍스트 입력기로 변환할 수도 있다. 예를 들어, 제어부(100)는 언어 선택 윈도우에서 특정 언어가 선택되면, 현재의 텍스트 입력기에서 선택된 언어에 대응하는 자판을 변경하여 표시부(112)에 표시하거나, 또는 현재의 텍스트 입력기를 선택된 언어에 매핑된 텍스트 입력기로 변환하여 표시부(112)에 표시할 수 있다.
제어부(100)는 오브젝트에서 언어 정보를 인식하면, 인식된 언어 정보를 텍스트 입력기에 전달할 수 있다. 텍스트 입력기는 제어부(100)로부터 전달된 언어 정보에 기초하여 텍스트 입력기의 설정 언어 또는 설정된 텍스트 입력기의 타입(예컨대, 언어별 자판 배열을 가지는 다른 종류의 텍스트 입력기)을 변경할 수 있다. 제어부(100)는 실행 중인 어플리케이션에서 텍스트 입력(또는 텍스트 입력기 표시, 제공된 텍스트 입력기의 전환)을 위한 사용자 입력에 반응하여 상기 언어 정보 기반으로 변경(설정)된 텍스트 입력기를 호출할 수 있고, 호출된 텍스트 입력기를 표시부(112)에 표시할 수 있다.
제어부(100)는 사용자 입력에 대응하는 메신저 어플리케이션을 실행할 수 있다. 제어부(100)는 메신저 어플리케이션을 실행할 때, 사용자가 이전에 특정 상대방(또는 그룹)과의 대화(채팅) 수행에 따라 생성된 대화 목록(또는 채팅 목록)을 어플리케이션 윈도우를 통해 표시부(112)에 표시할 수 있다. 제어부(100)는 표시된 대화 목록에서 특정 대화(채팅)를 선택하는 사용자 입력을 감지할 수 있다. 제어부(100)는 특정 대화가 선택되면, 선택된 대화에서 사용되는 언어 정보를 인식할 수 있다. 예를 들어, 제어부(100)는 대화 목록에서 특정 대화가 선택되면, 선택된 대화의 구성원의 정보(예컨대, 국가, 이름(외국어 이름, 국어 이름), 이미지 등) 또는 해당 대화에서 사용된 언어 등을 검출하고, 그에 대응하여 해당 대화에서 사용되는 언어 정보를 인식할 수 있다. 제어부(100)는 대화 진입(예컨대, 선택된 대화의 대화 윈도우 표시) 시 상기 검출된 언어 정보를 기반으로 텍스트 입력기를 구성할 수 있다. 제어부(100)는 대화에서 사용자의 텍스트 입력(또는 텍스트 입력기 표시)을 위한 사용자 요청에 응답하여 상기 언어 정보를 기반으로 구성된 텍스트 입력기를 호출하여 표시부(112)에 표시할 수 있다.
본 발명의 실시 예에 따른 제어부(100)는 상기의 기능 외에 전자 장치의 통상적인 기능과 관련된 각종 동작을 제어할 수 있다. 예를 들어, 제어부(100)는 특정 어플리케이션 실행 시 그의 운영 및 화면 표시를 제어할 수 있다. 또한 제어부(100)는 터치 기반의 입력 인터페이스(예컨대, 터치스크린(110))에서 지원하는 다양한 터치 이벤트 입력에 대응하는 입력신호를 수신하고 그에 따른 기능 운영을 제어할 수 있다. 또한 제어부(100)는 유선통신 기반 또는 무선통신 기반으로 각종 데이터의 송수신을 제어할 수도 있다.
한편, 본 발명의 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, 본 발명의 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다.
여기서, 상기 기록 매체는 어플리케이션을 실행하는 동작, 상기 어플리케이션에서 오브젝트를 인식하는 동작, 상기 오브젝트로부터 적어도 하나의 언어를 검출하는 동작, 상기 어플리케이션에서 텍스트 입력을 지원하기 위한 입력기를 상기 검출된 언어 정보에 대응하는 언어에 기반하여 설정하는 동작, 및 상기 언어가 설정된 입력기를 표시하는 동작을 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.
그리고 일부의 경우에 본 명세서에서 설명되는 실시 예들이 제어부(100) 자체로 구현될 수 있다. 또한 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 하나 또는 그 이상의 소프트웨어 모듈들로 구현될 수도 있다. 상기 하나 또는 그 이상의 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
도 2a 내지 도 2d는 본 발명의 실시 예에 따른 전자 장치에서 입력기가 제공되는 동작을 설명하기 위한 예시도들이다.
도 2a 내지 도 2d를 참조하면, 본 발명의 실시 예에서, 다국어 기반의 텍스트 입력을 지원하기 위한 입력기는 메신저, 인터넷(예컨대, 웹 검색, SNS), 메시지, 메일, 포털 사이트 연결, 캘린더, 메모, 사전, 지도, 갤러리, 주소록, 내비게이션, 마켓, 금융, 예약(예매) 등과 같이 사용자에 의한 텍스트 입력이 지원되는 모든 어플리케이션에서 제공될 수 있다.
도 2a 및 도 2b는 메신저 어플리케이션의 오브젝트로부터 언어 정보를 검출하여 해당 언어 기반의 입력기를 제공하는 동작을 설명하기 위해 도시한 도면들이다.
도 2a에 도시된 바와 같이, 제어부(100)는 사용자 입력에 응답하여 다양한 어플리케이션들의 목록이 제공되는 어플리케이션 목록 화면을 표시할 수 있다. 상기 도 2a와 같이 어플리케이션 목록이 표시된 상태에서, 사용자는 특정 어플리케이션을 실행하기 위하여 어플리케이션 목록에서 해당 어플리케이션에 대응하는 아이콘(예컨대, 메신저 어플리케이션의 아이콘(212))을 선택할 수 있다. 예를 들어, 사용자는 어플리케이션 목록에서 상기 아이콘(212)을 터치할 수 있다.
제어부(100)는 어플리케이션 목록에서 특정 아이콘(212)을 선택하는 사용자 입력(예컨대, 터치)을 감지하면, 해당 아이콘(212)에 대응하는 어플리케이션을 실행하고, 도 2b에 도시된 바와 같이 실행하는 어플리케이션과 관련된 화면(예컨대, 대화 화면)을 어플리케이션 윈도우를 통해 표시부(112)에 표시할 수 있다.
제어부(100)는 표시되는 어플리케이션 윈도우의 일부(예컨대, 화면 하단, 오른손 입력 모드에 따른 우하단, 왼손 입력 모드에 따른 좌하단 등)에 입력기(250)를 표시할 수 있다. 예를 들어, 제어부(100)는 제어부(100)는 상기 어플리케이션과 관련된 화면을 표시한 후, 사용자의 텍스트 입력 요청(예컨대, 입력기(250) 표시 요청)에 응답하여 상기 입력기(250)를 표시할 수 있다. 또는 제어부(100)는 상기 어플리케이션과 관련된 화면을 표시할 때 상기 입력기(250)를 함께 표시할 수 있다. 여기서, 상기 도 2b에서는 기본 언어(예컨대, 사용자가 설정한 언어(예컨대, 국어, 언어 등))로 설정된 입력기(250)를 표시할 수 있다.
제어부(100)는 사용자가 텍스트를 입력하기 위하여 상기 입력기(250)에서 특정 문자가 할당된 버튼을 선택하는 사용자 입력을 감지할 수 있다. 제어부(100)는 사용자 입력에 해당하는 문자를 입력기(250)의 문자 입력 영역(255)에 표시할 수 있다. 제어부(100)는 문자 입력 영역(255)에 표시된 문자를 대화로 입력하기 위한 사용자 입력(예컨대, SEND 버튼 선택)에 응답하여 해당 문자를 상기 어플리케이션 윈도우의 일부(예컨대, 대화 영역(260))에 표시할 수 있다. 제어부(100)는 사용자 입력에 대응하는 문자를 표시할 때 해당 문자와 관련된 데이터를 통신부(120)를 통해 대화 중인 상대방(또는 그룹)의 다른 전자 장치로 송신할 수 있다.
또한 제어부(100)는 상기 도 2b와 같이 특정 상대방(또는 그룹)의 다른 전자 장치와 메신저 어플리케이션을 통해 연결된 상태에서 통신부(120)를 통해 상기 다른 전자 장치로부터 다른 전자 장치의 사용자가 입력한 오브젝트(문자)에 대응하는 데이터를 수신할 수 있다. 제어부(100)는 다른 전자 장치로부터 데이터를 수신할 시 수신된 데이터에 대응하는 오브젝트(문자)를 상기 어플리케이션 윈도우의 일부(예컨대, 대화 영역(260))에 표시할 수 있다.
한편, 다른 전자 장치로부터 수신되는 데이터는 현재 사용자가 사용하는 언어(예컨대, 자국어)가 아닐 수 있다. 예를 들어, 상기 데이터를 송신하는 대화 상대방은 다른 언어를 사용하는 사용자일 수 있다. 예를 들어, 대화 상대방은 미국 사용자, 중국 사용자, 스페인 사용자 또는 독일 사용자 등 다양한 나라의 사용자이거나, 또는 상기 다른 전자 장치에서 특정 국가의 다른 언어를 설정하여 사용하는 사용자일 수 있다. 따라서 전자 장치에서 수신하는 데이터는 대화 상대방에 따라 상기 전자 장치의 사용자가 사용하는 언어(예컨대, 자국어) 외에 다른 다양한 다국어에 대응하는 데이터(문자(예컨대, 영어, 중국어, 스페인어, 독일어, 일본어 등)가 수신되어 표시될 수 있다.
본 발명의 실시 예에 따르면, 제어부(100)는 메신저 어플리케이션 등과 같이 입력기(250)를 이용한 텍스트 입력이 가능한 텍스트 입력 모드에서, 언어 인식 동작을 수행할 수 있다. 상기 언어 인식 동작은 어플리케이션을 실행하는 시점, 입력기를 실행하는 시점, 어플리케이션 실행 동안 발생되는 이벤트(예컨대, 데이터 수신, 사용자에 의한 언어 인식 요청 등) 감지 시점 등에서 수행될 수 있다. 제어부(100)는 언어 인식을 통해 사용자가 입력기(250)를 통해 설정한 언어와 다른 언어 정보가 검출되면, 그에 반응하여 상기 입력기(250)를 검출된 언어 정보에 대응하게 변경하여 제공할 수 있다.
예를 들어, 제어부(100)는 다른 전자 장치로부터 데이터가 수신될 시 수신된 데이터의 오브젝트(문자)를 표시하면서 해당 오브젝트에 대한 언어 인식 동작을 수행할 수 있다. 제어부(100)는 언어 인식 동작을 통해 오브젝트로부터 언어 정보를 검출할 수 있다. 제어부(100)는 검출된 언어 정보가 전자 장치의 입력기(250)에 설정된 언어 정보와 다른 언어를 가지는 경우, 상기 검출된 언어 정보에 대응하는 언어로 전환하기 위한 동작을 제어할 수 있다.
상기 입력기(250)의 언어 전환은 검출된 언어 정보의 수에 따라 자동으로 수행하거나 수동으로 수행될 수 있다. 예를 들어, 검출된 언어 정보가 특정 국가의 하나의 언어인 경우, 사용자 설정 방식(예컨대, 자동 방식)에 따라 검출된 언어 정보를 기반으로 입력기(250)의 종류 또는 입력기(250)의 설정 언어를 자동 변경할 수 있다. 또는 검출된 언어 정보가 다양한 국가들의 다국어인 경우이거나, 하나의 언어이면서 수동 방식이 설정된 경우, 입력기(250)의 설정 언어를 선택할 수 있는 언어 선택 윈도우를 표시부(112)에 표시할 수 있다.
제어부(100)는 언어 선택 윈도우에서 특정 언어를 선택하는 사용자 입력을 감지하면, 상기 사용자 입력에 대응하여 현재 제공되는 입력기(250)를 변경(설정)할 수 있다. 상기 입력기(250)를 변환하는 동작 예시는 도 3a 내지 도 3c를 참조하여 후술될 것이다.
도 2c는 인터넷 어플리케이션의 오브젝트로부터 언어 정보를 검출하여 해당 언어 기반의 입력기를 제공하는 동작을 설명하기 위해 도시한 도면이다.
도 2c에 도시된 바와 같이, 사용자는 상기 도 2a와 같은 어플리케이션 목록에서 인터넷 어플리케이션에 대응하는 아이콘을 선택할 수 있다. 제어부(100)는 어플리케이션 목록에서 상기 아이콘을 선택하는 사용자 입력을 감지하면, 해당 아이콘에 대응하는 인터넷 어플리케이션을 실행하고, 상기 도 2c에 도시된 바와 같이 실행하는 인터넷 어플리케이션과 관련된 화면(예컨대, 웹 페이지 화면)을 어플리케이션 윈도우를 통해 표시부(112)에 표시할 수 있다.
제어부(100)는 어플리케이션 윈도우를 통해 표시되는 웹 페이지를 사용하는 사용자 입력을 감지할 수 있다. 예를 들어, 사용자는 상기 웹 페이지에서 웹 검색을 위한 텍스트 입력 요청(예컨대, 검색 바(234) 선택 또는 입력기(250) 표시 요청)을 감지할 수 있다. 제어부(100)는 사용자가 텍스트를 입력하기 위한 동작에 반응하여 텍스트 입력 모드를 결정할 수 있다. 제어부(100)는 텍스트 입력 모드를 결정할 시 상기 웹 페이지가 포함하는 다양한 오브젝트들로부터 언어 인식 동작을 수행할 수 있다. 상기 다양한 오브젝트들은 주소 영역(232)에 입력된 도메인(domain)(또는 IP(Internet Protocol) 주소(address)), 데이터 영역(236)에 표시된 이미지 및 데이터(문자, 태그(tag), 전자 장치에서 판독 가능한 부호화된 라벨(예컨대, 바코드(bar code)), URL(Uniform Resource Locator) 등) 등을 포함할 수 있다.
본 발명의 실시 예에 따르면, 제어부(100)는 상기 웹 페이지의 오브젝트를 인식하여 하나 또는 그 이상의 국가들에 대응하는 언어 정보를 검출할 수 있다. 예를 들어, 웹 페이지에서 제공되는 도메인은 최상위 도메인, 서브 도메인, 호스트 이름 등으로 계층적으로 구성될 수 있고, 최상위 도메인은 국가를 의미할 수 있다. 따라서 제어부(100)는 상기 도메인으로부터 국가 정보를 인식할 수 있고, 인식된 국가 정보에 기초하여 그에 대응하는 언어 정보를 검출할 수 있다.
또한 웹 페이지에서 제공되는 URL은 인터넷에 존재하는 수많은 정보들의 위치를 표현하는 것으로, 해당 정보가 어떤 장치(예컨대, 서버, 컴퓨터 등)에 위치하고 있는지 나타낼 수 있다. 따라서 제어부(100)는 상기 URL로부터 해당 정보가 제공된 위치(예컨대, 특정 지역) 정보를 인식할 수 있고, 인식된 위치 정보에 기초하여 그에 대응하는 언어 정보를 검출할 수 있다.
또한 웹 페이지에서 문자는 하나 또는 그 이상의 국가들에 대응하는 언어(예컨대, 영어, 중국어, 일본어, 독일어, 한국어 등)로 제공될 수 있다. 따라서 제어부(100)는 상기 문자로부터 해당 문자를 사용하는 국가 정보를 인식할 수 있고, 인식된 국가 정보로부터 그에 대응하는 언어 정보를 검출할 수 있다.
이와 같이, 제어부(100)는 웹 페이지에서 인식하는 다양한 오브젝트를 통해 하나 또는 그 이상의 언어 정보들을 검출할 수 있다. 그리고 제어부(100)는 검출된 하나 또는 그 이상의 언어 정보들에 기초하여 입력기(250)의 언어를 설정할 수 있다. 예를 들어, 제어부(100)는 입력기(250)의 언어 자동 설정 방식에서, 검출된 언어 정보가 하나인 경우 해당 언어 정보에 기초하여 입력기(250)의 언어를 자동 변경 설정하여 제공할 수 있다. 또는 제어부(100)는 입력기(250)의 언어 자동 설정 방식에서, 검출된 언어 정보가 복수인 경우 복수의 언어 정보들 중에서 최우선 순위의 언어 정보(예컨대, 문자 기준, 도메인 기준 등과 같이 사용자에 의해 설정된 최상위 기준)에 기초하여 입력기(250)의 언어를 자동 변경 설정하여 제공할 수 있다. 또는 제어부(100)는 검출된 하나 또는 그 이상의 언어 정보들 중 현재 웹 페이지에서 사용자가 입력하고자 하는 언어의 선택(예컨대, 입력기(250)의 언어 설정)을 제공하기 위한 언어 선택 윈도우를 표시할 수 있다. 상기 언어 선택 윈도우는 상기 검출된 하나 또는 그 이상의 언어 정보들에 대응하는 하나 또는 그 이상의 언어들을 선택할 수 있도록 제공될 수 있다. 상기 입력기(250)의 언어 설정을 위한 상기 언어 선택 윈도우가 제공되는 동작 예시에 대해 후술될 것이다.
도 2d는 갤러리 어플리케이션의 오브젝트(예컨대, 이미지)로부터 언어 정보를 검출하여 해당 언어 기반의 입력기를 제공하는 동작을 설명하기 위해 도시한 도면이다.
도 2d에 도시된 바와 같이, 사용자는 상기 도 2a와 같은 어플리케이션 목록에서 갤러리 어플리케이션에 대응하는 아이콘을 선택할 수 있다. 제어부(100)는 어플리케이션 목록에서 상기 아이콘을 선택하는 사용자 입력을 감지하면, 해당 아이콘에 대응하는 갤러리 어플리케이션을 실행하고, 상기 도 2d에 도시된 바와 같이 실행하는 갤러리 어플리케이션과 관련된 화면(예컨대, 사용자에 의해 선택된 이미지 화면)을 어플리케이션 윈도우를 통해 표시부(112)에 표시할 수 있다.
본 발명의 실시 예에서 전자 장치에 저장되는 이미지는 다양한 오브젝트(예컨대, 자동 또는 수동으로 생성되는 정보들)를 포함할 수 있다. 예를 들어, 사용자는 전자 장치의 촬영 기능을 이용하여 특정 피사체(예컨대, 인물, 풍경, 동물 등)를 촬영하는 경우, 촬영에 따른 해당 이미지와 함께 하나 또는 그 이상의 오브젝트가 수동 또는 자동에 의해 저장할 수 있다. 한 실시 예에 따르면, 사용자는 촬영된 이미지를 저장할 때, 해당 이미지의 종류(예컨대, 인물, 풍경, 동물 등)에 따라 인물의 나이, 사용자와의 관계, 국적, 컨택트 정보, 장소 등의 오브젝트를 추가적으로 입력하여 저장할 수 있다. 또한 전자 장치는 피사체를 촬영할 때 옵션 설정에 따라 촬영되는 날짜 정보와 지리적 위치 정보 등의 오브젝트를 자동 생성하여 이미지와 매핑하여 함께 저장할 수 있다. 이와 같이, 이미지 및 그에 관련된 오브젝트는 전자 장치에 저장되는 형태뿐만 아니라, 웹 페이지 또는 SNS를 통해 제공되는 이미지에서도 상기와 같은 다양한 오브젝트들 중 하나 또는 그 이상이 포함될 수 있다.
또한 전자 장치에서는 사용자가 갤러리 어플리케이션을 통해 제공되는 이미지 또는 웹 페이지를 통해 제공되는 이미지를 이용하여, 해당 이미지의 대상자(예컨대, 이미지 내의 하나 또는 그 이상의 인물들에 대응하는 하나 또는 그 이상의 사용자) 또는 해당 이미지를 게재한 사용자(예컨대, 웹 페이지 또는 SNS를 통해 해당 이미지를 게재한 사용자) 등에게 다양한 메시지(예컨대, 댓글(comment), 글쓰기(writing), 문자메시지(SMS, MMS) 등)를 전달하는 기능을 지원할 수 있다.
사용자는 표시부(112)에 표시되는 이미지를 통해 상기한 메시지 전달 기능을 이용하고자 할 때, 메시지의 텍스트를 입력하기 위한 조작 등을 수행할 수 있다. 제어부(100)는 사용자가 텍스트를 입력하기 위한 동작에 반응하여 텍스트 입력 모드를 결정할 수 있다. 제어부(100)는 텍스트 입력 모드를 결정할 시 상기 이미지 또는 상기 이미지와 관계된 오브젝트(예컨대, 다양한 정보)를 인식할 수 있다.
본 발명의 실시 예에 따르면, 제어부(100)는 상기 이미지의 오브젝트를 인식하여 하나 또는 그 이상의 국가들에 대응하는 언어 정보를 검출할 수 있다. 예를 들어, 이미지에 대응하는 오브젝트로부터 설정된 국가, 지리적 위치 정보, 컨택트 정보 등으로부터 국가 정보 등을 인식할 수 있고, 인식된 국가 정보에 기초하여 그에 대응하는 언어 정보를 검출할 수 있다.
또는 제어부(100)는 상기 도 2d에 도시된 바와 같이 얼굴 인식(face recognition) 동작을 통해 이미지로부터 얼굴 이미지(242)만을 추출할 수 있다. 그리고 제어부(100)는 추출된 얼굴 이미지(242)와 저장부(130)에 저장된 주소록 또는 메모 등과 비교하여 해당 얼굴 이미지(242)에 대응하는 오브젝트를 확인하고, 해당 오브젝트로부터 언어 정보를 검출할 수도 있다.
이와 같이, 제어부(100)는 이미지에서 인식하는 다양한 오브젝트를 통해 하나 또는 그 이상의 언어 정보들을 검출할 수 있다. 그리고 제어부(100)는 검출된 하나 또는 그 이상의 언어 정보들에 기초하여 입력기(250)의 언어를 설정할 수 있다. 예를 들어, 제어부(100)는 입력기(250)의 언어 자동 설정 방식에서, 검출된 언어 정보가 하나인 경우 해당 언어 정보에 기초하여 입력기(250)의 언어를 자동 변경 설정하여 제공할 수 있다. 또는 제어부(100)는 입력기(250)의 언어 자동 설정 방식에서, 검출된 언어 정보가 복수인 경우 복수의 언어 정보들 중에서 최우선 순위의 언어 정보(예컨대, 사용자 설정 국가 기준, 컨택트 정보 기준, 지리적 위치 정보 기준 등과 같이 사용자에 의해 설정된 최상위 기준)에 기초하여 입력기(250)의 언어를 자동 변경 설정하여 제공할 수 있다. 또는 제어부(100)는 검출된 하나 또는 그 이상의 언어 정보들 중 이미지에서 사용자가 입력하고자 하는 언어의 선택(예컨대, 입력기(250)의 언어 설정)을 제공하기 위한 언어 선택 윈도우를 표시할 수 있다.
따라서 사용자는 이미지를 이용하여 해당 대상자에게 메시지를 전달하고자 할 때, 이미지의 해당 대상자가 사용하는 언어에 기초하여 텍스트를 입력하여 메시지를 보다 빠르게 전달할 수 있다. 상기 입력기(250)의 언어 설정을 위한 상기 언어 선택 윈도우가 제공되는 동작 예시에 대해 후술될 것이다.
도 3a 내지 도 3c는 본 발명의 실시 예에 따른 전자 장치에서 입력기(250)의 언어 변환을 지원하기 위한 동작 예시도들이다.
도 3a 내지 도 3c에 도시한 바와 같이, 도 3a 내지 도 3c는 본 발명의 다양한 실시 예에 따라 오브젝트로부터 검출된 언어 정보에 기반하여 입력기(250)의 언어 변환을 위한 언어 선택 윈도우가 제공되는 다양한 방식들의 예시를 나타낸 것이다. 본 발명의 실시 예에서 상기 언어 선택 윈도우는 상기 검출된 언어 정보에 대응하는 적어도 하나의 언어를 선택(전환)할 수 있는 인터페이스(예컨대, 검출된 언어 정보에 따라 일정 영역으로 구분되어 언어 선택을 위한 사용자 입력을 수신할 수 있는 인터페이스)를 포함할 수 있다.
도 3a를 참조하면, 제어부(100)는 도 2b의 예시와 같이 메신저 어플리케이션을 운영하는 중에 오브젝트(312)(예컨대, 대화 상대방이 입력하여 전송하는 문자)를 수신할 수 있다. 여기서, 수신되는 오브젝트(312)는 한 국가에 국한되지 않고 다양한 국가의 언어에 대응하는 오브젝트가 될 수 있다.
제어부(100)는 메신저 어플리케이션 운영 중에 수신된 오브젝트(312)로부터 언어 정보를 검출할 수 있다. 예를 들어, 오브젝트를 송신하는 대화 상대방은 전자 장치의 사용자와 다른 언어를 사용하는 하나 또는 그 이상의 사용자들일 수 있다. 한 실시 예에 따르면, 대화 상대방은 미국 사용자, 중국 사용자, 스페인 사용자 또는 독일 사용자 등 다양한 나라의 사용자이거나, 또는 대화 상대방은 해당 전자 장치에서 특정 국가의 다른 언어를 설정하여 사용하는 사용자일 수 있다. 따라서 전자 장치에서 수신하는 오브젝트는 해당 대화 상대방에 따라 상기 전자 장치의 사용자가 사용하는 언어(예컨대, 자국어) 외에 다양한 다른 언어들에 대응하는 오브젝트(예컨대, 영어, 중국어, 스페인어, 일본어 또는 독일어)와 같이 다양한 다국어가 수신되어 표시될 수 있다. 제어부(100)는 수신되는 오브젝트로부터 언어 정보를 분석하여 해당 언어를 검출할 수 있다.
제어부(100)는 오브젝트(312)로부터 언어 정보를 검출하면, 표시부(112)의 일부에 언어 선택 윈도우(314)를 표시할 수 있다. 예를 들어, 언어 선택 윈도우(314)는 입력기(250)가 표시되는 영역 상의 일부에 표시되거나, 또는 대화 영역(260) 상의 일부에 표시될 수 있다. 여기서, 언어 선택 윈도우(314)는 상기 오브젝트(312)로부터 검출된 하나 또는 그 이상의 언어 정보들에 대응하는 하나 또는 그 이상의 언어들을 선택 및 설정할 수 있도록 지원될 수 있다.
예를 들어, 도 3a의 예시에서는 전자 장치가 사용하는 언어(예컨대, 사용자에 의해 입력기(250)의 언어로 설정된 기존 언어)와 다른 하나의 언어 정보가 검출되는 경우의 예시를 나타낸 것이다. 상기 도 3a의 언어 선택 윈도우(314)의 예시와 같이 기존 언어와 검출된 언어 정보에 대응하는 인식 언어(316) 간에 전환할 수 있는 인터페이스(예컨대, 전환 방향을 지시하는 아이템(<, >) 구성)가 제공될 수 있다. 한 실시 예에 따르면, 사용자는 상기 언어 선택 윈도우(314)에서 상기 아이템에 대한 탭 또는 언어 선택 윈도우(314) 상에서의 드래깅, 플리킹 등의 사용자 입력에 기반하여 기존 언어와 인식 언어(316) 간을 전환하여 입력기(250)의 언어를 설정할 수 있다.
또한 본 발명의 실시 예에 따르면, 사용자는 상기 언어 선택 윈도우(314)가 제공된 상태에서 전자 장치의 제1 자세 변화(예컨대, 전자 장치의 상하 중심축을 기준으로 좌 기울임(좌 방향 회전) 또는 우 기울임(우 방향 회전) 등)를 통해 언어 선택 윈도우(314)에 표시되는 언어를 전환하고, 제2 자세 변화(예컨대, 전자 장치 멈춤, 또는 제1 자세 변화와는 다른 설정된 자세 변화 등)를 통해 전환된 언어 기반으로 입력기(250)의 언어를 설정할 수도 있다. 본 발명의 실시 예에서 언어 선택 윈도우(314)는 상기 도 3a에 도시한 형태에 한정되는 것은 아니며, 다양하게 구현될 수 있다. 예를 들어, 상기 도 3a의 예시에서는 좌우 슬라이드 타입으로 제공되는 것을 예시로 나타내었으나, 상하 슬라이드 타입, 회전 타입 등 다양한 형태로 구현될 수 있다.
상기 도 3a에서는 도시하지 않았으나, 제어부(100)는 입력기(250)가 표시된 상태에서 오브젝트 수신을 판단하고, 수신된 오브젝트로부터 검출된 언어 정보가 입력기(250)의 현재 언어와 다른 경우에 언어 선택 윈도우(314)를 제공할 수 있다. 또한 제어부(100)는 입력기(250)가 표시되지 않은 상태에서 오브젝트 수신을 판단하고, 수신된 오브젝트로부터 검출된 언어 정보가 입력기(250)의 현재 언어와 다른 경우에는 입력기(250)의 언어를 상기 검출된 언어 정보 기반으로 자동 변경하고, 입력기(250)를 표시할 때 변경된 언어 기반의 입력기(250)를 제공할 수도 있다. 또한 제어부(100)는 입력기(250)가 표시되지 않은 상태에서 수신된 오브젝트로부터 검출된 언어 정보가 입력기(250)의 현재 언어와 다른 경우 입력기(250)를 표시할 때 언어 선택 윈도우(314)를 함께 제공할 수도 있다.
도 3b를 참조하면, 제어부(100)는 도 2c의 예시와 같이 인터넷 어플리케이션을 운영하는 중에 웹 페이지를 사용하는 사용자 입력에 응답하여 텍스트 입력 모드를 결정할 수 있다.
제어부(100)는 인터넷 어플리케이션 운영 중에 상기 텍스트 입력 모드를 결정하면, 웹 페이지의 오브젝트로부터 언어 정보를 검출할 수 있다. 여기서, 웹 페이지의 오브젝트는 다양한 국가의 언어 정보를 포함할 수 있다. 예를 들어, 웹 페이지의 오브젝트는 도메인(또는 IP 주소), 이미지 및 데이터(예컨대, 문자, 태그, 라벨, URL 등) 중 적어도 하나를 포함할 수 있다. 따라서 제어부(100)는 상기 웹 페이지가 포함하는 하나 또는 그 이상의 오브젝트들로부터 하나 또는 그 이상의 언어 정보들을 분석하여 해당 언어를 검출할 수 있다.
제어부(100)는 언어 정보가 검출되면, 표시부(112)의 일부에 언어 선택 윈도우(320)를 표시할 수 있다. 예를 들어, 언어 선택 윈도우(320)는 입력기(250)가 표시되는 영역 상의 일부에 표시되거나, 또는 웹 페이지가 표시되는 영역 상의 일부에 표시될 수 있다. 여기서, 언어 선택 윈도우(320)는 상기 오브젝트로부터 검출된 하나 또는 그 이상의 언어 정보들에 대응하는 하나 또는 그 이상의 언어들을 선택(전환) 및 설정할 수 있는 인터페이스를 포함할 수 있다.
예를 들어, 도 3b의 예시에서는 전자 장치가 사용하는 언어(예컨대, 사용자에 의해 입력기(250)의 언어로 설정된 기존 언어)와 다른 복수의 언어들에 대응되는 언어 정보들이 검출되는 경우의 예시를 나타낸 것이다. 상기 도 3b의 언어 선택 윈도우(320)의 예시와 같이 기존 언어(328)와 검출된 언어 정보들에 대응하는 인식 언어들(예컨대, 제1 인식 언어(322), 제2 인식 언어(324), 제3 인식 언어(326) 중 어느 하나를 선택할 수 있는 인터페이스(예컨대, 검출된 언어 정보(기존 언어(328), 인식 언어들(322, 324, 326))를 선택 가능한 적어도 하나의 영역으로 구분된 인터페이스)가 제공될 수 있다.
상기 언어 선택 윈도우(320)에서 기존 언어(328)와 인식 언어들(322, 324, 326)의 배치는 우선순위(예컨대, 문자 기준, 도메인 기준 등)에 따라 배치되어 구성될 수 있다. 한 실시 예에 따르면, 제어부(100)는 웹 페이지 내의 오브젝트를 인식하여 언어 정보를 검출하는 과정에서 다양한 언어 정보들이 검출되는 경우, 해당 언어 정보들의 분포도 또는 사용빈도 등을 고려하여 우선순위를 결정할 수 있다. 상기 도 3b의 예시에서는 기존 언어(328)가 최우선 순위의 언어로 인식되고, 제1 인식 언어(322), 제2 인식 언어(324) 및 제3 인식 언어(326)가 후 순위의 언어로 순차적으로 인식된 경우일 수 있다.
또는 입력기(250)의 기존 언어(328)는 우선순위와 관계 없이 기본으로 제공될 수 있고, 검출된 언어 정보들의 인식 언어들(322, 324, 326)에 대해서 우선순위를 결정하여 그에 따라 배치할 수도 있다. 예를 들어, 도 3b의 예시에 따르면 제1 인식 언어(322)가 1순위의 언어로 결정되고, 제 2인식언어(324), 제 3인식언어(326)가 각각 2순위, 3순위의 언어로 결정된 경우일 수 있다.
한편, 제어부(100)는 언어 선택 윈도우(320)를 제공함에 있어서, 기존 언어(320)를 유지하거나, 또는 제외할 수도 있다. 기존 언어(328)는 사용자가 마지막으로 사용한 언어(예컨대, 입력기(250)에 현재 설정된 언어)가 될 수 있다.
본 발명의 실시 예에서 언어 선택 윈도우(320)는 상기 도 3b에 도시한 형태에 한정되는 것은 아니며, 다양하게 구현될 수 있다. 예를 들어, 상기 도 3b의 예시에서는 4개의 분할 영역들로 언어 선택 윈도우(320)가 제공되는 것을 예시로 나타내었으나, 검출된 언어 정보들의 수에 따라 분할 영역들의 개수 및 형태가 다양하게 구현될 수 있다
도 3c를 참조하면, 도 3c는 언어 선택 윈도우가 입력기(250)와 대응되는 피처 크기(feature size)(예컨대, 입력기(250)의 가로, 세로 크기)를 가지는 반투명 레이어 형식으로 제공될 수 있다.
예를 들어, 메신저 어플리케이션이 실행중인 경우를 가정하면, 제어부(100)는 수신되는 오브젝트들(332)(예컨대, 제1 인식 언어, 제2 인식 언어, 제3 인식 언어)에 대응하는 다양한 언어 정보들을 검출할 수 있다. 제어부(100)는 오브젝트들(332)로부터 복수의 언어 정보들을 검출하면, 표시부(112)의 일부에 언어 선택 윈도우를 표시할 수 있다. 이때, 제어부(100)는 언어 선택 윈도우를 제공할 때, 입력기(250)에 대응되는 피처 크기를 가지는 반투명 윈도우를 입력기(250) 상부에 적층하여 표시하는 것과 같은 레이어 형식으로 지원할 수 있다.
한 실시 예에 따르면, 사용자가 국어로 언어가 설정된 입력기(250)를 사용하고 있는 중이라고 가정하고, 수신되는 오브젝트들(332)이 중국어, 일본어, 독일어인 경우를 가정할 수 있다. 제어부(100)는 각각의 해당 오브젝트들(332)로부터 검출된 언어 정보를 통해 각각의 언어(예컨대, 중국어, 일본어, 독일어)를 인식할 수 있다. 제어부(100)는 검출된 언어 정보에 기초하여 인식된 각 언어들에 대응하는 각각의 입력기를 구성하여 레이어 형식(334, 336, 338)으로 지원할 수 있다. 여기서, 제어부(100)는 각 언어들에 대응하는 각각의 입력기를 구성하여 레이어 형식으로 지원할 때 우선순위에 따라 최우선 순위의 언어에 대응하는 입력기(334)를 현재 제공된 입력기(250) 상에 반투명 형태로 제공할 수 있다. 상기 도 3c에서는 오브젝트들(332) 중 제1 인식 언어가 최우선 순위의 언어인 것을 예시로 나타내었다.
이를 보다 상세히 설명하면, 제어부(100)는 제1 인식 언어에 해당하는 입력기(334)를 표시부(112)의 입력기(250)가 제공되는 영역에서 상기 입력기(250)와 대응되는 피처 크기를 가지는 반투명 레이어로 표시할 수 있다. 그리고 제어부(100)는 제2 인식 언어에 대응되는 입력기(336)와 제3 인식 언어에 대응되는 입력기(338)는 표시하지는 않지만, 제1 인식 언어에 대응되는 입력기(334) 생성 시 함께 생성되어 내부적으로 관리될 수 있다. 제어부(100)는 입력기(250) 상에 제공된 제1 인식 언어에 대응되는 입력기에 대응되는 반투명 레이어에 사용자 입력(예컨대, 드래그, 플리킹 또는 스크롤링)이 감지되면, 해당 입력에 따라 제2 인식 언어의 입력기(336) 또는 제3 인식 언어의 입력기(338)로 전환하여 입력기(250) 상에 표시할 수 있다. 그리고 제어부(100)는 입력기를 전환하는 사용자 입력에 따라 특정 입력기로 전환하여 표시한 후 해당 입력기를 설정하는 사용자 입력에 따라 현재 표시된 입력기를 기본 입력기로 설정할 수 있다. 그러면, 사용자는 변경 설정된 해당 입력기에 기반하여 국어가 아닌 해당 입력기에 대응하는 다른 언어에 의한 텍스트 입력을 수행할 수 있다.
한편, 상기 도 3a 또는 도 3c의 예시에서는 수신된 모든 오브젝트들로부터 언어 정보를 검출하여 그에 따른 언어 선택 윈도우를 제공하는 것을 예시로 나타내었다. 하지만, 본 발명의 실시 예에 따르면, 마지막으로 수신된 오브젝트에 대해 언어 정보를 검출하고, 마지막 수신된 오브젝트의 언어 정보에 기초하여 입력기(250)의 언어를 자동으로 변경할 수도 있다. 예를 들어, 제어부(100)는 메신저 어플리케이션에서 입력기(250)가 표시된 상태에서 다른 전자 장치로부터 오브젝트를 수신하여 표시할 때, 수신된 오브젝트의 언어 정보를 검출하여 상기 표시 중인 입력기(250)의 언어를 자동 변경할 수 있다.
도 4는 본 발명의 실시 예에 따른 전자 장치에서 입력기(250)의 언어 변환을 지원하기 위한 제어 방법을 도시한 흐름도이다.
도 4를 참조하면, 410동작에서 제어부(100)는 어플리케이션 실행을 위한 사용자 입력에 응답하여 해당 어플리케이션 실행을 제어할 수 있다. 예를 들어, 제어부(100)는 어플리케이션 실행을 위한 사용자 입력을 감지하기 위한 대기 상태에서, 터치패널(114)을 통해 상기 사용자 입력을 감지할 수 있다. 제어부(100)는 상기 사용자 입력에 대응하는 어플리케이션을 실행할 수 있고, 실행하는 어플리케이션을 어플리케이션 윈도우를 통해 표시부(112)에 표시할 수 있다.
420동작에서 제어부(100)는 어플리케이션 윈도우에서 하나 또는 그 이상의 오브젝트들을 인식할 수 있다. 상기 하나 또는 그 이상의 오브젝트들은 상기 어플리케이션 윈도우 내의 도메인, 데이터, 이미지, 텍스트 등이 포함될 수 있다.
오브젝트가 인식되면, 430동작에서 제어부(100)는 인식된 오브젝트로부터 언어 정보를 검출할 수 있다. 예를 들어, 제어부(100)는 어플리케이션 윈도우에서 인식된 텍스트에 대해 언어 인식 알고리즘을 이용하여 해당 텍스트에 대응하는 국가의 언어 정보를 검출할 수 있다. 또한 제어부(100)는 어플리케이션 윈도우에서 인식된 도메인에서 도메인 국가 코드(country code)(예컨대, KOREA(KR), USITED STATES(US), CHINA(CN), CANADA(CA), FRANCE(FR), JAPAN(JP) 등) 또는 아이피 주소(Internet Protocol Address) 등을 이용하여 해당 도메인에 대응하는 국가의 언어 정보를 검출할 수 있다. 또한 제어부(100)는 어플리케이션 윈도우에서 인식된 이미지에서 이미지의 배경 인식 또는 얼굴 인식을 통해 해당 이미지에 대응하는 국가의 언어 정보를 검출할 수 있다.
상기 언어 정보가 검출되면, 440동작에서 제어부(100)는 검출된 언어 정보에 따른 언어 선택 윈도우를 표시부(112)에 표시할 수 있다. 예를 들어, 제어부(100)는 검출된 언어 정보가 특정 하나의 국가 언어인 경우 해당 언어를 지원하기 위한 하나의 입력기를 선택할 수 있는 언어 선택 윈도우를 제공할 수 있다. 또한 제어부(100)는 검출된 언어 정보가 서로 다른 복수의 국가들의 언어들인 경우 해당 언어들을 지원하기 위한 각 국가 언어별 복수의 입력기들 중 어느 하나를 선택할 수 있는 언어 선택 윈도우를 제공할 수 있다. 또한 제어부(100)는 검출된 언어 정보들을 포함한 언어 선택 윈도우를 제공함에 있어 우선순위(예컨대, 제1 인식 언어, 제2 인식 언어 등)에 따라 언어 선택 윈도우를 지원할 수 있다.
언어 선택 윈도우가 표시되면, 450동작에서 제어부(100)는 상기 언어 선택 윈도우에서 사용자 입력을 감지할 수 있다. 예를 들어, 제어부(100)는 상기 어플리케이션 윈도우의 일부를 통해 언어 선택 윈도우가 표시된 상태에서 사용자가 특정 언어를 선택하는 사용자 입력을 터치패널(114)을 통해 감지할 수 있다.
상기 사용자 입력이 감지되면, 460동작에서 제어부(100)는 언어 선택 윈도우에서 사용자 입력에 따라 선택되는 언어의 입력기로 변환(또는 입력기의 언어를 사용자 입력에 따른 언어로 변경 설정)할 수 있다. 여기서, 입력기 변환은 레이어 형식으로 지원될 수도 있다.
상기 입력기가 변환되면, 470동작에서 제어부(100)는 입력기 변환에 따른 입력기를 표시부(112)에 표시할 수 있다. 제어부(100)는 언어 선택 윈도우에서 특정 언어(또는 입력기)가 선택될 시 기존 입력기(현재 기본으로 설정된 입력기 또는 입력기의 언어)를 선택된 입력기(또는 언어)로 변환할 수 있고, 변환된 입력기를 기존 입력기가 표시된 영역을 통해 표시할 수 있다. 이때, 제어부(100)는 변환된 입력기를 표시할 시 언어 선택 윈도우의 표시를 제거할 수도 있다.
도 5는 본 발명의 실시 예에 따른 전자 장치에서 입력기(250)의 언어 변환을 지원하기 위한 다른 동작 예시를 도시한 도면이다.
도 5를 참조하면, 사용자는 메신저 어플리케이션을 통해 사용된 대화 목록을 확인하고자 하거나, 또는 메신저 어플리케이션을 통해 특정 대화 그룹과 대화는 수행하고자 하는 경우, 메신저 어플리케이션을 실행하여 대화 목록이 표시되도록 조작할 수 있다. 제어부(100)는 사용자 입력에 따라 어플리케이션의 하나 또는 그 이상의 대화 목록들을 포함하는 어플리케이션 윈도우를 표시부(112)에 표시할 수 있다. 예를 들어, 제어부(100)는 제1 대화 목록(예컨대, 제1 대화자(512)), 제2 대화 목록(예컨대, 제2 대화자(514)), 제3 대화 목록(예컨대, 제3 대화자 외 2명(516))과 같은 대화 목록들을 어플리케이션 윈도우를 통해 표시할 수 있다. 여기서, 대화 목록들 각각(예컨대, 제1 대화자(512), 제2 대화자(514) 또는 제3 대화자 외 2명(516))은 다양한 정보들이 매핑되어 포함될 수 있다. 예를 들어, 대화 목록은 해당 대화 그룹에 참여된 하나 또는 그 이상의 구성원들 정보, 각 구성원들에 대응하는 전화번호, 주소, 이름, 나이, 국적 등과 같은 다양한 정보가 포함될 수 있다. 이러한 다양한 정보는 주소록 또는 메모 형태로 저장부(130)에 저장될 수 있다.
한편, 사용자는 대화 목록에서 특정 대화 그룹과 대화를 수행하기 위한 해당 대화 그룹의 대화 목록을 선택할 수 있다. 예를 들어, 사용자는 제1 대화자(512)를 선택할 수 있다. 여기서, 제1 대화자(512)를 중국인으로 가정하면, 일반적으로 사용자는 제1 대화자(512)와 대화를 하기 위해 현재 입력기의 언어(예컨대, 마지막으로 저장된 입력기의 언어)에서 중국어를 지원하기 위한 입력기로 전환하는 동작을 수행하여야 한다.
본 발명의 실시 예에 따르면, 제어부(100)는 대화 목록에서 제1 대화자(512)를 선택하는 사용자 입력을 감지하면, 사용자 입력에 따라 선택된 제1 대화자(512)에 관계되는 하나 또는 그 이상의 정보를 저장부(130)를 통해 검출할 수 있다. 제어부(100)는 제1 대화자(512)에 관계된 정보로부터 언어 정보를 검출할 수 있다. 그리고 제어부(100)는 제1 대화자(512)와 검출된 언어 정보에 대응하는 언어에 기반하여 입력기의 언어를 변환할 수 있다. 여기서, 입력기의 언어를 변환하는 것은 상기에 언급한 입력기 언어를 변환하는 모든 방식을 포함할 수 있다. 이후, 제어부(100)는 사용자 입력에 해당하는 대화 목록(예컨대, 제1 대화자(512))의 대화를 위한 대화 윈도우를 표시부(112)에 표시할 수 있다.
도 6은 본 발명의 실시 예에 따른 전자 장치에서 입력기(250)의 언어 변환을 지원하기 위한 제어 방법을 도시한 흐름도이다.
도 6을 참조하면, 610동작에서 제어부(100)는 어플리케이션의 대화 목록을 요청하는 사용자 입력에 응답하여 대화 목록을 표시부(112)에 표시할 수 있다.
대화 목록이 표시되면, 620동작에서 제어부(100)는 대화 목록을 선택하는 사용자 입력을 감지할 수 있다.
사용자 입력이 감지되면, 630동작에서 제어부(100)는 대화 목록의 구성원에 해당하는 언어 정보를 검출할 수 있다.
해당 언어 정보가 검출되면, 640동작에서 제어부(100)는 검출된 언어 정보에 해당하는 입력기를 구성할 수 있다. 예를 들어, 제어부(100)는 대화 목록을 선택하는 사용자 입력에 응답하여, 해당 대화 목록에 포함되는 다양한 정보로부터 언어 정보를 검출할 수 있고, 검출된 언어 정보에 기초하여 입력기의 언어를 변경 설정할 수 있다.
입력기가 구성되면, 650동작에서 제어부(100)는 구성된 입력기를 표시부(112)에 표시할 수 있다. 예를 들어, 제어부(100)는 선택된 대화 목록의 대화 윈도우를 표시할 때 변경된 입력기를 함께 표시하거나, 또는 대화 윈도우를 표시한 후 사용자의 입력기 요청을 감지할 때 변경된 입력기를 호출하여 표시할 수 있다.
한편, 본 발명의 다양한 실시 예에 따르면, 전자 장치에서 제공하는 입력기는 표시부(112)를 통해 표시되는 가상의 터치 기반의 소프트 입력기뿐만 아니라, 적외선 키보드(레이저 키보드)를 포함할 수 있다. 따라서 본 발명의 다양한 실시 예에 따르면, 적외선 키보드(레이저 키보드)를 제공하는 방식에서도 오브젝트로부터 검출된 언어 정보에 기초하여 적외선 키보드(레이저 키보드)의 지원 언어를 변경하여 제공할 수 있다. 한 실시 예에 따르면, 자국어 기반으로 배치된 자판을 가지는 적외선 키보드를, 검출된 언어 정보(예컨대, 영어, 중국어, 일본어, 독일어 등)에 기초하여 배치된 자판을 가지는 적외선 키보드로 변환하여 제공할 수 있다.
본 발명의 다양한 실시 예에 따르면, 각각의 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 그 조합으로 구성될 수 있다. 또한 일부 또는 전체 모듈은 하나의 개체(entity)에 구성되되, 각 해당 모듈의 기능을 동일하게 수행되도록 구성할 수 있다. 또한 본 발명의 다양한 실시 예에 따르면, 각각의 동작들은 순차적, 반복적 또는 병렬적으로 실행될 수 있다. 또한 일부 동작들은 생략되거나, 다른 동작들이 추가되어 실행될 수도 있다.
상술한 바와 같은 본 발명의 다양한 실시 예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터로 판독 가능한 기록 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
그리고 본 명세서와 도면에 개시된 실시 예들은 본 발명의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 제어부
110: 터치스크린
112: 표시부
114: 터치패널
120: 통신부
130: 저장부
140: 전원공급부
250: 입력기

Claims (24)

  1. 전자 장치에서 입력기를 제공하는 방법에 있어서,
    어플리케이션을 실행하는 과정;
    상기 어플리케이션에서 오브젝트를 인식하는 과정;
    상기 오브젝트로부터 적어도 하나의 언어 정보를 검출하는 과정;
    텍스트 입력기의 언어를 상기 검출된 언어 정보에 기반하여 설정하는 과정; 및
    상기 언어가 설정된 텍스트 입력기를 표시하는 과정을 포함하는 것을 특징으로 하는 입력기 제공 방법.
  2. 제1항에 있어서,
    상기 표시하는 과정은
    상기 텍스트 입력기의 표시를 요청하는 사용자 입력을 감지하는 과정; 및
    상기 사용자 입력에 응답하여 상기 언어가 설정된 상기 텍스트 입력기를 호출(invoke)하는 과정을 포함하는 것을 특징으로 하는 입력기 제공 방법.
  3. 제2항에 있어서,
    상기 설정하는 과정은
    상기 검출된 언어 정보에 대응하여 언어 선택 윈도우를 표시하는 과정을 포함하는 것을 특징으로 하는 입력기 제공 방법.
  4. 제3항에 있어서,
    상기 언어 선택 윈도우는
    상기 검출된 언어 정보에 대응하는 적어도 하나의 언어를 선택할 수 있는 인터페이스를 포함하는 것을 특징으로 하는 입력기 제공 방법.
  5. 제3항에 있어서,
    상기 언어 선택 윈도우는
    상기 검출된 언어 정보에 대응하는 적어도 하나의 언어의 텍스트 입력기를 반투명 레이어로 제공하는 것을 특징으로 하는 입력기 제공 방법.
  6. 제2항에 있어서,
    상기 설정하는 과정은
    상기 검출된 언어 정보가 복수인 경우 검출된 언어 정보들의 우선순위를 판단하는 과정; 및
    상기 언어 정보들 중 최우선 순위의 언어 정보에 기반하여 상기 텍스트 입력기를 설정하는 과정을 포함하는 것을 특징으로 하는 입력기 제공 방법.
  7. 제2항에 있어서, 상기 오브젝트는
    도메인, 이미지, 데이터, 텍스트를 포함하는 것을 특징으로 하는 입력기 제공 방법.
  8. 제1항에 있어서,
    상기 언어 정보를 검출하는 과정은
    상기 검출된 언어 정보에 따른 언어가 현재 설정된 텍스트 입력기의 언어와 다른 언어에 해당하는지 판단하는 과정을 포함하는 것을 특징으로 하는 입력기 제공 방법.
  9. 제8항에 있어서,
    상기 표시하는 과정은
    상기 검출된 언어 정보가 상기 텍스트 입력기의 언어와 다른 언어인 경우, 상기 텍스트 입력기를 상기 검출된 언어 정보에 대응하는 텍스트 입력기로 전환하여 표시하는 과정을 포함하는 것을 특징으로 하는 입력기 제공 방법.
  10. 제3항에 있어서,
    상기 언어 선택 윈도우를 표시하는 과정은
    상기 언어 선택 윈도우에서 특정 언어를 선택하는 과정; 및
    상기 텍스트 입력기를 상기 선택된 언어에 대응하는 텍스트 입력기로 대체하여 표시하는 과정을 포함하는 것을 특징으로 하는 입력기 제공 방법.
  11. 제1항에 있어서,
    상기 어플리케이션의 대화 목록을 표시하는 과정;
    상기 대화 목록을 선택하는 사용자 입력을 감지하는 과정;
    상기 사용자 입력에 대응하는 대화 목록의 정보를 판단하는 과정;
    상기 대화 목록의 정보로부터 언어 정보를 검출하는 과정; 및
    상기 검출된 언어 정보를 기반으로 상기 텍스트 입력기의 언어를 설정하는 과정을 더 포함하는 것을 특징으로 하는 입력기 제공 방법.
  12. 제11항에 있어서,
    상기 대화 목록의 대화 윈도우 표시 또는 사용자의 텍스트 입력기 요청에 응답하여 상기 설정된 텍스트 입력기를 호출하여 표시하는 과정을 더 포함하는 것을 특징으로 하는 입력기 제공 방법.
  13. 제1항에 있어서,
    상기 텍스트 입력기는
    전자 장치의 표시부를 통해 표시되는 소프트 키패드와 상기 전자 장치의 외부를 통해 투사되는 적외선 키보드를 포함하는 것을 특징으로 하는 입력기 제공 방법.
  14. 전자 장치에 있어서,
    실행되는 어플리케이션에 대응하는 오브젝트를 표시하는 표시부;
    사용자 입력을 감지하는 터치패널; 및
    상기 오브젝트를 인식하고, 상기 오브젝트로부터 적어도 하나의 언어 정보를 검출하고, 상기 검출된 언어 정보에 기반하여 텍스트 입력기의 언어를 설정하고, 상기 언어가 설정된 텍스트 입력기를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 전자 장치.
  15. 제14항에 있어서,
    상기 제어부는
    상기 텍스트 입력기의 표시를 요청하는 사용자 입력에 응답하여 상기 언어가 설정된 상기 텍스트 입력기를 호출(invoke)하여 표시하는 것을 특징으로 하는 전자 장치.
  16. 제14항에 있어서,
    상기 제어부는
    상기 검출된 언어 정보에 대응하여 언어 선택 윈도우의 표시를 제어하고,
    상기 언어 선택 윈도우는,
    상기 검출된 언어 정보에 대응하는 적어도 하나의 언어를 선택할 수 있는 인터페이스를 포함하는 것을 특징으로 하는 전자 장치.
  17. 제16항에 있어서,
    상기 언어 선택 윈도우는
    상기 검출된 언어 정보에 대응하는 적어도 하나의 언어의 텍스트 입력기를 반투명 레이어로 제공하는 것을 특징으로 하는 전자 장치.
  18. 제14항에 있어서,
    상기 제어부는
    상기 검출된 언어 정보가 복수인 경우 검출된 언어 정보들의 우선순위를 판단하고, 상기 언어 정보들 중 최우선 순위의 언어 정보에 기반하여 상기 텍스트 입력기를 설정하는 것을 특징으로 하는 전자 장치.
  19. 제14항에 있어서,
    상기 오브젝트는
    도메인, 이미지, 데이터, 텍스트를 포함하는 것을 특징으로 하는 전자 장치.
  20. 제14항에 있어서,
    상기 제어부는
    상기 검출된 언어 정보에 따른 언어가 현재 설정된 텍스트 입력기의 언어와 다른 언어에 해당하는지 판단하고, 상기 검출된 언어 정보가 상기 텍스트 입력기의 언어와 다른 언어인 경우 상기 텍스트 입력기를 상기 검출된 언어 정보에 대응하는 텍스트 입력기로 전환하여 표시하는 것을 특징으로 하는 전자 장치.
  21. 제16항에 있어서,
    상기 제어부는
    상기 언어 선택 윈도우에서 특정 언어를 선택하는 사용자 입력에 응답하여 상기 텍스트 입력기를 상기 선택된 언어에 대응하는 텍스트 입력기로 대체하여 표시하는 것을 특징으로 하는 전자 장치.
  22. 제14항에 있어서,
    상기 제어부는
    상기 어플리케이션의 대화 목록을 표시하고, 상기 대화 목록을 선택하는 사용자 입력에 응답하여 상기 대화 목록의 정보로부터 언어 정보를 검출하고, 상기 검출된 언어 정보를 기반으로 상기 텍스트 입력기의 언어를 구성하는 것을 특징으로 하는 전자 장치.
  23. 제22항에 있어서,
    상기 제어부는
    상기 대화 목록의 대화 윈도우 표시 또는 사용자의 텍스트 입력기 요청에 응답하여 상기 설정된 텍스트 입력기를 호출하여 표시하도록 제어하는 것을 특징으로 하는 전자 장치.
  24. 전자 장치에 있어서,
    실행되는 어플리케이션에 대응하는 오브젝트를 표시하는 표시부와;
    사용자 입력을 감지하는 터치패널과;
    하나 또는 그 이상의 프로그램들이 저장되는 저장부; 및
    상기 하나 또는 그 이상의 프로그램들을 실행하여 상기 전자 장치의 텍스트 입력기의 언어 설정을 제어하는 하나 또는 그 이상의 프로세서들을 포함하고,
    상기 하나 또는 그 이상의 프로그램들은,
    어플리케이션을 실행하는 과정,
    상기 어플리케이션에서 오브젝트를 인식하는 과정,
    상기 오브젝트로부터 적어도 하나의 언어를 검출하는 과정,
    상기 텍스트 입력기의 언어를 상기 검출된 언어 정보에 기반하여 설정하는 과정, 및
    상기 언어가 설정된 텍스트 입력기를 표시하는 과정을 실행하는 프로그램을 포함하는 것을 특징으로 하는 전자 장치.
KR1020130152922A 2013-12-10 2013-12-10 전자 장치에서 입력기 제공 방법 및 장치 Withdrawn KR20150067489A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130152922A KR20150067489A (ko) 2013-12-10 2013-12-10 전자 장치에서 입력기 제공 방법 및 장치
US14/565,862 US20150161099A1 (en) 2013-12-10 2014-12-10 Method and apparatus for providing input method editor in electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130152922A KR20150067489A (ko) 2013-12-10 2013-12-10 전자 장치에서 입력기 제공 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20150067489A true KR20150067489A (ko) 2015-06-18

Family

ID=53271335

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130152922A Withdrawn KR20150067489A (ko) 2013-12-10 2013-12-10 전자 장치에서 입력기 제공 방법 및 장치

Country Status (2)

Country Link
US (1) US20150161099A1 (ko)
KR (1) KR20150067489A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190071363A (ko) * 2017-12-14 2019-06-24 주식회사 윤디자인그룹 한글자판 선택 가능한 통합 가상키보드 제공 방법
US10802851B2 (en) 2017-05-12 2020-10-13 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof
WO2025135551A1 (ko) * 2023-12-20 2025-06-26 삼성전자주식회사 화면에 표시된 하나 이상의 요소들에 기반하여 가상 키보드 또는 추천 단어를 제공하기 위한 전자 장치, 방법, 및 컴퓨터 판독 가능 저장 매체
US12430155B2 (en) 2017-05-12 2025-09-30 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9798716B2 (en) * 2014-12-10 2017-10-24 James E. Niles Internet of things language setting system
US9743219B2 (en) * 2014-12-29 2017-08-22 Google Inc. Low-power wireless content communication between devices
US9762761B2 (en) * 2016-01-26 2017-09-12 Kabushiki Kaisha Toshiba Image forming apparatus and printing sheet to be watched by using smart glass
JP6925789B2 (ja) * 2016-06-29 2021-08-25 京セラ株式会社 電子機器、制御方法、及びプログラム
KR101927438B1 (ko) * 2016-07-14 2018-12-10 삼성전자주식회사 홀 영역을 가지는 전자 장치 및 전자 장치의 홀 영역 제어방법
US10104221B2 (en) * 2016-09-30 2018-10-16 Sony Interactive Entertainment Inc. Language input presets for messaging
US10430042B2 (en) 2016-09-30 2019-10-01 Sony Interactive Entertainment Inc. Interaction context-based virtual reality
US10175770B2 (en) * 2016-10-13 2019-01-08 International Business Machines Corporation Proactive input method editor switching
US11327538B2 (en) 2016-10-27 2022-05-10 Samsung Electronics Co., Ltd. Electronic apparatus having a hole area within screen and control method thereof
KR102721107B1 (ko) * 2017-01-02 2024-10-24 삼성전자주식회사 텍스트를 인식하는 방법 및 단말기
WO2018176365A1 (en) * 2017-03-31 2018-10-04 Orange Method for displaying a virtual keyboard on a mobile terminal screen
US10547817B2 (en) * 2017-04-12 2020-01-28 Mr. Christmas Incorporated Programmable laser device
CN112041791B (zh) * 2018-05-10 2022-05-27 荣耀终端有限公司 一种显示输入法虚拟键盘的方法及终端
JP7063844B2 (ja) 2019-04-26 2022-05-09 ファナック株式会社 ロボット教示装置
CN111651068B (zh) * 2020-05-28 2023-04-18 维沃移动通信有限公司 文字语言类型的切换方法、装置、设备及存储介质
WO2023193162A1 (en) * 2022-04-07 2023-10-12 Citrix Systems, Inc. Computing device and methods providing enhanced language detection and display features for virtual computing sessions

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0524354D0 (en) * 2005-11-30 2006-01-04 Ibm Method, system and computer program product for composing a reply to a text message received in a messaging application
US8326333B2 (en) * 2009-11-11 2012-12-04 Sony Ericsson Mobile Communications Ab Electronic device and method of controlling the electronic device
US20110285656A1 (en) * 2010-05-19 2011-11-24 Google Inc. Sliding Motion To Change Computer Keys
US20120310622A1 (en) * 2011-06-02 2012-12-06 Ortsbo, Inc. Inter-language Communication Devices and Methods
US9069164B2 (en) * 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US20140028566A1 (en) * 2012-07-30 2014-01-30 Infosys Limited Systems and methods for generating a dynamic and localized atm keypad
US20140035823A1 (en) * 2012-08-01 2014-02-06 Apple Inc. Dynamic Context-Based Language Determination
US20140108002A1 (en) * 2012-10-17 2014-04-17 Research In Motion Limited Method and system for updating display information based on detected language of a received message
US8996352B2 (en) * 2013-02-08 2015-03-31 Machine Zone, Inc. Systems and methods for correcting translations in multi-user multi-lingual communications

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10802851B2 (en) 2017-05-12 2020-10-13 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof
US11726806B2 (en) 2017-05-12 2023-08-15 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof
US12430155B2 (en) 2017-05-12 2025-09-30 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof
KR20190071363A (ko) * 2017-12-14 2019-06-24 주식회사 윤디자인그룹 한글자판 선택 가능한 통합 가상키보드 제공 방법
WO2025135551A1 (ko) * 2023-12-20 2025-06-26 삼성전자주식회사 화면에 표시된 하나 이상의 요소들에 기반하여 가상 키보드 또는 추천 단어를 제공하기 위한 전자 장치, 방법, 및 컴퓨터 판독 가능 저장 매체

Also Published As

Publication number Publication date
US20150161099A1 (en) 2015-06-11

Similar Documents

Publication Publication Date Title
KR20150067489A (ko) 전자 장치에서 입력기 제공 방법 및 장치
US10841265B2 (en) Apparatus and method for providing information
US10620774B2 (en) Method and apparatus for providing multiple applications
US9928028B2 (en) Mobile terminal with voice recognition mode for multitasking and control method thereof
KR102064952B1 (ko) 수신 데이터를 이용하여 어플리케이션을 운영하는 전자 장치
US9898161B2 (en) Method and apparatus for controlling multitasking in electronic device using double-sided display
TWI438675B (zh) 提供情境感知援助說明之方法、裝置及電腦程式產品
EP3371693B1 (en) Method and electronic device for managing operation of applications
US20180196854A1 (en) Application extension for generating automatic search queries
US20120038668A1 (en) Method for display information and mobile terminal using the same
US9535595B2 (en) Accessed location of user interface
US20150045000A1 (en) Electronic device provided with touch screen and operating method thereof
US20140245229A1 (en) Method and apparatus for operating object in user device
AU2013222043B2 (en) Method and apparatus for providing intelligent service using inputted character in a user device
JP6439266B2 (ja) タッチスクリーンを有する電子装置におけるテキスト入力方法及び装置
KR20150080756A (ko) 멀티윈도우 제어 방법 및 이를 지원하는 전자 장치
US9871710B2 (en) Electronic device for operating application
EP2936275A1 (en) Electronic device and method of controlling display lighting thereof
KR20150087665A (ko) 핸드라이팅 정보 운용 방법 및 이를 지원하는 전자 장치
KR102004986B1 (ko) 어플리케이션 실행 방법 및 시스템, 단말과 그 기록 매체
KR102215178B1 (ko) 전자장치에서 사용자 입력 방법 및 장치
CN115033153A (zh) 应用程序推荐方法及电子设备
US20150293686A1 (en) Apparatus and method for controlling home screen
WO2019005245A1 (en) ACCESSING APPLICATION FEATURES FROM A GRAPHIC KEYBOARD
EP2717121B1 (en) Method and apparatus for providing intelligent service using inputted character in a user device

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20131210

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid