[go: up one dir, main page]

WO2012036331A1 - 이동 통신 단말기에서의 스케쥴 입력 방법 및 장치 - Google Patents

이동 통신 단말기에서의 스케쥴 입력 방법 및 장치 Download PDF

Info

Publication number
WO2012036331A1
WO2012036331A1 PCT/KR2010/006441 KR2010006441W WO2012036331A1 WO 2012036331 A1 WO2012036331 A1 WO 2012036331A1 KR 2010006441 W KR2010006441 W KR 2010006441W WO 2012036331 A1 WO2012036331 A1 WO 2012036331A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
schedule
schedule information
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2010/006441
Other languages
English (en)
French (fr)
Inventor
이성원
최진욱
백승천
이정수
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Priority to US13/202,992 priority Critical patent/US8671348B2/en
Priority to PCT/KR2010/006441 priority patent/WO2012036331A1/ko
Publication of WO2012036331A1 publication Critical patent/WO2012036331A1/ko
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Definitions

  • the present invention relates to a method and apparatus for inputting a schedule in a mobile communication terminal, and more particularly, to a method and apparatus for inputting schedule information using an image photographed by a camera.
  • the present invention provides a method and apparatus for displaying a schedule of a mobile communication terminal that allows a user to easily check a schedule by displaying an icon corresponding to a user situation on a scheduler after detecting a user situation using sensor or schedule information There is a purpose.
  • the present invention relates to a camera for providing an image photographed through a lens; A memory for storing an image photographed through the camera and identification information corresponding to the image; A control unit for generating schedule information based on identification information corresponding to an image photographed by the camera and storing the generated schedule information in a scheduler; And a display unit for displaying the generated schedule information or the scheduler under the control of the control unit.
  • the identification information may be tagging information or character information corresponding to the image.
  • controller may control the scheduler to store the generated schedule information in advance in the scheduler when the tagging information is periodically repeated at predetermined time intervals.
  • the predetermined time may be one week, one month, and one year.
  • the controller may control the display unit to display the generated schedule information in a superimposed manner on the scheduler.
  • controller may control to generate schedule information based on the identification information when an event occurs.
  • the identification information may include at least one of a date, a time, a place, a name, a title, and a detailed content.
  • the schedule information may include at least one of a schedule content, a schedule title, a schedule date, and time information.
  • the scheduler is an application for managing schedules, and is displayed on the display unit in the form of a table.
  • the control unit may further include an input unit for inputting the tagging information, and the control unit controls the input unit to input the tagging information based on a GPS receiver or a voice recognition sensor.
  • the apparatus may further include an audio output unit for converting the generated schedule information into a sound and outputting the sound.
  • the controller may further include a step of, when the tagging of the person name is included in the tagging information, extracting a photograph corresponding to the tagging of the person's name from the memory and displaying the extracted photograph.
  • the wireless communication unit may further include a wireless communication unit, and the controller may control the wireless communication unit to transmit a photograph in which the touch input is generated when a touch input is generated in the extracted photograph.
  • the controller may control the display unit to display detailed information corresponding to the schedule information when a touch input is generated in the schedule information displayed on the display unit.
  • the detailed information may include at least one of review, preview, and recommendation corresponding to the image.
  • the present invention also relates to a memory for storing input schedule information and image information; A timer unit for confirming time information in real time; When the schedule information corresponding to the time information confirmed by the timer unit is periodically repeated, schedule information or image information of a predetermined time before the schedule information or the image information stored in the memory is extracted from the confirmed time information A control unit for controlling the display unit to display the image; And a display unit for displaying the extracted schedule information or image information under the control of the control unit.
  • the image information may include at least one of an image captured through a camera and a tagging information corresponding to the image.
  • the tagging information includes at least one of date, time, place, person name, and detailed content tagging.
  • control unit controls the display unit to display the schedule information or the video information when the scheduler is executed, and the scheduler is an application for managing a schedule.
  • the controller may control the display unit to distinguish the schedule information or the image information from the scheduler.
  • the control unit controls the display unit to display the schedule information or the video information corresponding to the predetermined number of times when the schedule information or the number of the video information before the predetermined time is greater than the preset number of times from the confirmed time information .
  • the control unit displays the schedule information or image information in the order of one year ago, one month before, one week before, or in the reverse order,
  • the control unit controls the display unit to display the display unit.
  • FIG. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a function of displaying schedule information according to the first embodiment
  • FIG. 3 is a diagram illustrating a function of displaying schedule information according to the second embodiment
  • FIG. 4 is a diagram illustrating a function of sharing a photograph with a participant included in the tagging information according to the third embodiment
  • FIG. 5 illustrates a schedule information display function according to a fourth embodiment
  • FIG. 6 is a diagram illustrating a function of displaying detailed information corresponding to schedule information according to the fourth embodiment
  • FIG. 7 illustrates a display function of schedule information or image information according to the fifth embodiment
  • FIG. 8 is a diagram showing a display function of schedule information or image information according to the sixth embodiment.
  • the mobile terminal described in this specification may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), navigation and the like.
  • PDA Personal Digital Assistants
  • PMP Portable Multimedia Player
  • FIG. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • the mobile terminal 100 includes a wireless communication unit 110, an audio / video input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, A controller 170, a controller 180, and the like.
  • the components shown in FIG. 1 are not essential, and a mobile terminal having more or fewer components may be implemented.
  • the wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and the network in which the mobile terminal 100 is located.
  • the wireless communication unit 110 may include a mobile communication module 111, a wireless Internet module 112, a short distance communication module, and a location information module 113.
  • the wireless Internet module 112 is a module for wireless Internet access, and may be built in or externally attached to the mobile terminal 100.
  • WLAN Wi-Fi
  • Wibro Wireless broadband
  • Wimax Worldwide Interoperability for Microwave Access
  • HSDPA High Speed Downlink Packet Access
  • the short-range communication module is a module for short-range communication.
  • Bluetooth Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.
  • RFID Radio Frequency Identification
  • IrDA infrared data association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • the position information module 113 is a module for obtaining the position of the mobile terminal, and a representative example thereof is a Global Position System (GPS) module.
  • GPS Global Position System
  • an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122.
  • the camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video communication mode or the photographing mode.
  • the processed image frame can be displayed on the display unit 151.
  • the image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ Two or more cameras 121 may be provided depending on the use environment.
  • the camera 121 has low pixels so that it is easy to capture a face of a user in the case of a video call or the like and transmit the face to the other party. In many cases, the camera 121 does not transmit a general object It is preferable to have a high pixel.
  • the camera 121 may be installed on the terminal body so as to be rotatable or pop-upable.
  • the microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data.
  • the processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output.
  • Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.
  • the user input unit 130 generates input data for a user to control the operation of the terminal.
  • the user input unit 130 may include a key pad dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like.
  • the user input unit 130 is operated to receive a command for controlling the operation of the portable terminal 100, and may include a plurality of operation units.
  • the operating units may also be referred to as manipulating portions and may be employed in any manner as long as the user is operating in a tactile manner with a tactile impression.
  • Contents inputted by the first or second operation units can be set variously.
  • the first operation unit receives a command such as start, end, scroll, and the like
  • the second operation unit controls the size of the sound output from the sound output unit 152 or the touch recognition mode of the display unit 151 And the like can be inputted.
  • the sensing unit 140 senses the current state of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of user contact, the orientation of the mobile terminal, And generates a sensing signal for controlling the operation of the mobile terminal 100.
  • the sensing unit 140 may include a proximity sensor.
  • the output unit 150 generates an output related to a visual, auditory or tactile sense.
  • the output unit 150 may include a display unit 151, an audio output module 152, an alarm unit 153, and the like.
  • the display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When the mobile terminal 100 is in the video communication mode or the photographing mode, the photographed and / or received video or UI and GUI are displayed.
  • a UI User Interface
  • GUI Graphic User Interface
  • a 'touch screen' in which a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') form a mutual layer structure, It can also be used as an input device.
  • the touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.
  • the touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal.
  • the touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.
  • the corresponding signal (s) is sent to the touch controller.
  • the touch controller processes the signal (s) and transmits the corresponding data to the controller 180.
  • the control unit 180 can know which area of the display unit 151 is touched or the like.
  • the audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The sound output module 152 also outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, etc.) performed in the mobile terminal 100.
  • the audio output module 152 may include a receiver, a speaker, a buzzer, and the like.
  • the alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events that occur in the mobile terminal include call signal reception, message reception, key signal input, touch input, and the like.
  • the alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration.
  • the video signal or the audio signal may be output through the display unit 151 or the audio output module 152 so that they may be classified as a part of the alarm unit 153.
  • the memory 160 may store a program for the operation of the controller 180 and temporarily store input / output data (e.g., a phone book, a message, a still image, a moving picture, etc.).
  • the memory 160 may store data on vibration and sound of various patterns outputted when a touch is input on the touch screen.
  • the memory stores an image photographed by the camera and tagging information corresponding to the image.
  • the tagging information corresponding to the image includes at least one of date, time, place, person name, and details.
  • the date, time, and place of the tagging information are automatically tagged without input by the user.
  • specific items such as the name of the person, details of the contents, and the like among the tagging information are inputted by the user.
  • the input of the tagging information may be input through a key input unit or input through voice.
  • the tagging information input through the voice is input through the microphone of the A / V input unit.
  • the microphone receives an external sound signal by a microphone in a voice recognition mode or the like, and processes it as electrical voice data. And the tagging information is generated using the processed voice data.
  • the memory also stores photo information.
  • the photograph information includes various photographs such as a photograph of a person, a photograph of a scenery, a specific building, and a specific area.
  • the memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk.
  • the mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory 160 on the Internet.
  • the interface unit 170 serves as a path for communication with all external devices connected to the mobile terminal 100.
  • the interface unit 170 receives data from an external device or supplies power to each component in the mobile terminal 100 or transmits data to the external device.
  • a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.
  • the identification module is a chip for storing various information for authenticating the use right of the mobile terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM), a general user authentication module A Universal Subscriber Identity Module (USIM), and the like.
  • UIM user identification module
  • SIM subscriber identity module
  • USIM Universal Subscriber Identity Module
  • Devices with identification modules can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.
  • the interface unit When the mobile terminal 100 is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the mobile terminal 100, or various command signals input by the user to the cradle may be transmitted It can be a passage to be transmitted to the terminal.
  • the various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.
  • the controller 180 typically controls the overall operation of the mobile terminal. For example, voice communication, data communication, video communication, and the like.
  • the control unit 180 may include a multimedia module 181 for multimedia playback.
  • the multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180.
  • the controller 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.
  • control unit controls to generate schedule information based on the tagging information corresponding to the image photographed through the camera of the A / V input unit when an event occurs.
  • the event occurs, the input of the tagging information corresponding to the image is completed, or the touch input occurs in the captured image.
  • the schedule information is information including at least one of schedule contents, schedule title, schedule date and time information.
  • the controller controls the memory to store the generated schedule information when the generated schedule information is an event of a repeated pattern.
  • the display unit is controlled to display a scheduler including the stored schedule information.
  • the controller may control the display unit to display the generated schedule information and the scheduler in a superimposed manner.
  • the repeated pattern event corresponds to an event that occurs periodically every week, month, and year.
  • the generated schedule information may be related to a birthday, a wedding anniversary, or the like, which occurs periodically every year.
  • the schedule information may be related to a meeting or the like occurring periodically every month.
  • the schedule information may be related to meetings, clubs, and the like that occur periodically every week.
  • the scheduler is an application (application program) for managing schedule information, and the form of the scheduler may be various forms. For example, in the form of a table or a figure. That is, it may be a circular shape analogue scheduler.
  • the controller receives the name of the participant from the memory, And controls to extract the photograph.
  • the control unit controls to display the extracted photographs separately from the image. For example, the control unit may control to display the extracted photograph on the lower or upper side of the image or on the left or right side of the image.
  • the controller controls the wireless communication unit to transmit a photograph in which the touch input is generated when a touch input is made to the extracted photograph.
  • the controller extracts character information from an image photographed through a camera, and displays the extracted character information or stores it in a scheduler.
  • the character information refers to the date, time, place, content, etc. of the image.
  • the control unit may control the display unit to display the extracted character information at a specific location of the scheduler and the scheduler in which the extracted character information is stored when touch input is performed on the extracted character information displayed on the display unit, do.
  • the specific position may be one of up, down, left, and right of the scheduler.
  • the extracted character information may be displayed as a message pop-up.
  • the control unit controls to display detailed information related to the schedule information.
  • the detailed information includes a review, a preview, and a recommendation corresponding to the schedule information. That is, when the touch input is generated in the schedule information displayed on the display unit, the control unit performs a web search on the background to display detailed information related to the schedule information.
  • control unit compares at least one of the date and time confirmed by the timer unit and at least one of the image information and the schedule information stored in the memory, extracts at least one of image information and schedule information corresponding to a predetermined time from the current time information, .
  • the timer verifies the current date and time in real time.
  • the memory stores schedule information and image information.
  • the image information represents an image captured through a camera and tagging information corresponding to the image.
  • predetermined time refers to a time corresponding to one week, one month, and one year before.
  • the control unit controls the display unit to display the video information and the schedule information separately.
  • the display may be performed by differently displaying or by displaying different sizes.
  • the control unit sets at least one of the predetermined number of image information and schedule information And controls the display unit to display the image.
  • the predetermined number may be a value that can be changed by the user or a value set to the terminal by default.
  • control unit controls the display unit to display the image information in a sequence of one year, one month, one week before, or vice versa.
  • control is performed so as to display according to the priority of the extracted image information and schedule information.
  • the priority is preset by the user.
  • the control unit displays the displayed image information and schedule information in different sizes and colors according to the priority order.
  • the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions.
  • the embodiments described may be implemented by the control unit 180 itself.
  • embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein.
  • Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the memory 160 and can be executed by the control unit 180.
  • schedule information is generated and stored in a scheduler using identification information corresponding to an image photographed by a camera.
  • the identification information corresponds to tagging information or character information.
  • the first embodiment provides a method of generating schedule information based on the tagging information and storing it in a scheduler.
  • FIG. 2 is a diagram illustrating a function of displaying schedule information according to the first embodiment.
  • the control unit when an event occurs, the control unit generates schedule information based on the tagging information corresponding to the image photographed by the camera, and controls the memory to store the generated schedule information in the scheduler. In addition, the controller displays the generated schedule information and the generated schedule information. Under the control of the control unit, the display unit displays the generated schedule information. Also, the display unit displays a scheduler in which the generated schedule information is stored.
  • the user When the input of the tagging information is completed, the user inputs the tagging information directly to the photographed image or the tagging information is inputted through the voice. In addition, when the image is photographed by the camera, the tagging information is automatically input by the terminal without user intervention. When a predetermined key is selected or a touch input is generated, a specific event is generated by the user's selection.
  • the schedule information refers to information including at least one of a schedule content, a schedule title, a schedule date and time information.
  • the tagging information corresponding to the image includes at least one of date, time, place, person name, and detailed content tagging.
  • the date, time, and place tagging among the tagging information can be automatically tagged without any input by the user.
  • specific items such as the name of the person, details of the contents, etc. among the tagging information are directly inputted by the user or inputted through the voice. That is, the input of the tagging information may be input through a key input unit or input through a voice.
  • the tagging information input through the voice is converted into voice data through the microphone of the A / V input unit to generate tagging information.
  • the microphone receives an external sound signal by a microphone in a voice recognition mode or the like, and processes it as electrical voice data. And the tagging information is generated using the processed voice data.
  • the scheduler is an application for managing schedules, and may have various shapes.
  • the scheduler may be displayed on a display unit in a circular analog clock shape, a table shape, or the like.
  • schedule information on an image photographed by the camera is generated and displayed together with the scheduler on the display unit (S210, S220).
  • And may be displayed at any one of the upper, lower, left, and right positions of the scheduler, or may be superimposed on the scheduler in a message pop-up form.
  • the second embodiment provides a function of storing the schedule information in the scheduler when the tagging information is an event of a pattern in which the periodicity is repeated.
  • FIG. 3 is a diagram illustrating a function of displaying schedule information according to the second embodiment.
  • the control unit controls the scheduler to store the generated schedule information in advance in the event that the tagging information corresponding to the image photographed by the camera is repeated.
  • the repeated pattern event refers to an event that occurs periodically at predetermined time intervals.
  • the generated schedule information may be related to a birthday, a wedding anniversary, or the like that occurs periodically every year.
  • the schedule information may be related to a business meeting or the like occurring periodically every month.
  • the schedule information may be related to a team meeting, a club meeting, or the like occurring periodically every week.
  • the predetermined time is a time corresponding to one week, one month, one year, and the like.
  • the control unit controls the generated schedule information to be stored in advance in the scheduler at predetermined time intervals.
  • the scheduler is an application (application program) for managing a schedule
  • the form of the scheduler may be various forms. For example, in the form of a table or a figure.
  • the scheduler may be in the form of a circular analog clock.
  • the date and time corresponding to the date and time included in the tagging information every one year stores the repeated event in the scheduler in advance. That is, if the current date and time of the recurring event is 9:00 am on September 6, 2010, 9:00 am on September 6, 2011, 9:00 am on September 6th, 2012 ... And stores the repeated event in the scheduler in advance.
  • the controller controls the display unit to display a message pop-up window indicating whether to store the created schedule information in the scheduler in advance. That is, the generated schedule information may be stored in advance in the scheduler by the user's selection.
  • the user's selection may be a touch input of the displayed message pop-up window.
  • the display unit displays a message pop-up window indicating whether to store the generated schedule information in advance in the scheduler under the control of the controller (S300)
  • the third embodiment provides a function of extracting and displaying a photograph corresponding to the person name when tagging of person name is included in the tagging information.
  • FIG. 4 is a diagram illustrating a function of sharing a photograph with a participant included in the tagging information according to the third embodiment.
  • the controller extracts the photograph corresponding to the person's name from the memory and controls the display unit to display the extracted photograph. That is, if there is tagging of the participant in the image photographed by the camera, the controller extracts the photograph corresponding to the participant from the memory and displays the extracted photograph on the display unit.
  • control unit controls the extracted photograph to be distinguished from the photographed image.
  • control unit controls the extracted picture to be displayed on one of the bottom, top, right, and left sides of the image.
  • the control unit controls the display unit to display the extracted image on the image.
  • the control unit controls the wireless communication unit to transmit the event-generated photograph to a corresponding person when an event such as a touch input occurs in the extracted photograph.
  • the display unit displays the extracted photograph on the lower side of the photographed image under the control of the control unit (S400).
  • a photograph of the participant displayed at the bottom of the image photographed by the camera The touched photo is transmitted to the attendee so as to share the photo.
  • the fourth embodiment provides a function of extracting character information corresponding to an image photographed by a camera and generating and storing schedule information in a scheduler.
  • FIG. 5 is a diagram illustrating a schedule information display function according to the fourth embodiment.
  • the control unit extracts character information from the image photographed through the camera to generate schedule information, and controls the generated schedule information to be stored in the scheduler.
  • the character information refers to information including date, time, place, content, etc. related to the image.
  • the image may be a poster picture such as a movie, a play, a musical performance, or the like.
  • the controller controls the display unit to display a message pop-up window indicating whether to store the generated schedule information in the scheduler.
  • the controller controls the memory to store the generated schedule information in the scheduler.
  • the controller controls the scheduler to separately display the generated schedule information and the generated schedule information.
  • the scheduler is displayed so as to distinguish whether the schedule information is included or not.
  • the size of the date displayed on the scheduler may be increased or the color may be different, so that the display may be distinguished from the case where there is no schedule information.
  • schedule information may be displayed on any one of the upper, lower, left, and right sides of the scheduler.
  • schedule information may be superimposed on the scheduler and displayed in a message pop-up form.
  • the display unit displays the generated schedule information under the control of the controller (S500), and displays the generated scheduler (S510)
  • FIG. 6 is a diagram illustrating a function of displaying detailed information corresponding to schedule information according to the fourth embodiment.
  • the control unit controls to display detailed information related to the schedule information. That is, when the touch input is generated in the schedule information displayed on the display unit, the control unit controls to display detailed information related to the schedule information through a web search.
  • the web search is performed through a search application (application program) running in the background.
  • the detailed information includes a review, a preview, and a recommendation corresponding to the schedule information.
  • the detailed information may be a review of the movie, a preview of the movie, a comment of people about the movie, etc., if the schedule information is information corresponding to the movie.
  • the display unit displays detailed information related to the schedule information when a touch input occurs under the control of the control unit (S600)
  • the fifth embodiment provides a method for displaying schedule information or image information a predetermined time before the current date.
  • FIG. 7 is a diagram illustrating a display function of schedule information or image information according to the fifth embodiment.
  • the control unit compares the time information confirmed by the timer with schedule information or image information stored in the memory, and extracts and displays schedule information or image information of a predetermined time before the current time information.
  • the time information refers to the date and time. That is, when the schedule information corresponding to the date confirmed by the timer unit is periodically repeated, the control unit displays schedule information or image information of a predetermined time before the confirmed date in the schedule information or image information stored in the memory, And displays it.
  • a periodically repeated event refers to an event that occurs on a weekly, monthly, or yearly basis, such as a birthday, a wedding anniversary, or a meeting.
  • the timer refers to a clock, which indicates the date and time.
  • control unit controls the schedule information or the image information to be displayed when the scheduler is executed.
  • the scheduler is an application for managing schedules and may have various forms. In one example, the scheduler may be in the form of a table.
  • the schedule information includes at least one of a specific schedule content, a schedule title, date and time information.
  • the image information includes at least one of an image captured through a camera and a tagging information corresponding to the image.
  • the predetermined time refers to a time of one week, one month, one year, and the like.
  • the control unit may display the schedule information or the video information corresponding to the predetermined number of times when the schedule information or the video information before the predetermined time is larger than the preset number of times from the time information confirmed by the timer unit .
  • the preset number is a value that can be changed by the user or corresponds to a value set to the terminal by default.
  • the sixth embodiment provides a method for displaying the schedule information or the video information when a plurality of schedule information or video information is present a predetermined time before the current date.
  • FIG. 8 is a diagram illustrating a display function of schedule information or image information according to the sixth embodiment.
  • the control unit controls the display unit to display the schedule information or the image information extracted from the memory in a sequence of one year, one month, one week before, or vice versa.
  • the display unit is controlled to display according to the priority of the extracted schedule information or image information.
  • the priority may be preset by the user.
  • the control unit controls the display unit to display the size or color of the schedule information or the image information displayed according to the priority order differently.
  • the display unit displays the corresponding image information one year before the current date (S800) under the control of the control unit, and displays image information corresponding thereto one month before the current date. (S810)
  • the above-described method can be implemented as a code that can be read by a processor on a medium on which the program is recorded.
  • Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 명세서는 렌즈를 통해 촬영한 영상을 제공하는 카메라; 상기 카메라를 통해 촬영된 영상 및 상기 영상에 해당하는 식별 정보를 저장하는 메모리; 상기 카메라에 의해 촬영된 영상에 해당하는 식별 정보에 기초하여 스케쥴 정보를 생성하며 상기 생성된 스케쥴 정보를 스케쥴러에 저장하도록 제어하기 위한 제어부; 및 상기 제어부의 제어 하에, 상기 생성된 스케쥴 정보 또는 상기 스케쥴러를 표시하기 위한 디스플레이부를 포함하여 이루어진다.

Description

이동 통신 단말기에서의 스케쥴 입력 방법 및 장치
본 명세서는 이동 통신 단말기에서의 스케쥴 입력 방법 및 장치에 관한 것으로 특히, 카메라로 촬영된 영상을 이용하여 스케쥴 정보를 입력하는 방법 및 장치에 관한 것이다.
이동 통신 단말기가 널리 보급됨에 따라 전자시계나 전자수첩보다 이동 통신 단말기를 이용하여 스케쥴 관리를 하는 사람이 많아졌다. 하지만, 현재 이동 통신 단말기는 스케쥴을 입력하기에 복잡하여 사용자들은 스케쥴 입력은 PC로 하고, 스케쥴의 확인만 이동 통신 단말기를 이용하는 경향이 있다. 따라서, 이동 통신 단말기에 구비된 카메라를 이용하여 스케쥴 작성이나 저장을 쉽게 하기 위한 필요성이 대두되고 있다.
본 명세서에서는 센서 또는 스케쥴 정보를 이용하여 사용자 상황을 파악한 후, 사용자 상황에 해당하는 아이콘을 스케쥴러에 표시함으로써 사용자로 하여금 스케쥴을 용이하게 확인할 수 있도록 한 이동 통신 단말기의 스케쥴 표시 방법 및 장치를 제공함에 목적이 있다.
본 명세서는 렌즈를 통해 촬영한 영상을 제공하는 카메라; 상기 카메라를 통해 촬영된 영상 및 상기 영상에 해당하는 식별 정보를 저장하는 메모리; 상기 카메라에 의해 촬영된 영상에 해당하는 식별 정보에 기초하여 스케쥴 정보를 생성하며 상기 생성된 스케쥴 정보를 스케쥴러에 저장하도록 제어하기 위한 제어부; 및 상기 제어부의 제어 하에, 상기 생성된 스케쥴 정보 또는 상기 스케쥴러를 표시하기 위한 디스플레이부를 포함하여 이루어진다.
또한, 상기 식별 정보는 상기 영상에 해당하는 태깅 정보 또는 문자 정보인 것을 특징으로 한다.
또한, 상기 제어부는 상기 태깅 정보가 소정 시간마다 주기적으로 반복되는 이벤트인 경우, 상기 생성된 스케쥴 정보를 상기 소정 시간마다 미리 스케쥴러에 저장하도록 제어하는 것을 특징으로 한다.
또한, 상기 소정 시간은 일 주일, 일 개월, 일 년인 것을 특징으로 한다.
또한, 상기 제어부는 상기 생성된 스케쥴 정보를 상기 스케쥴러에 중첩하여 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 한다.
또한, 상기 제어부는 이벤트가 발생하는 경우, 상기 식별 정보에 기초하여 스케쥴 정보를 생성하도록 제어하는 것을 특징으로 한다.
또한, 상기 이벤트가 발생하는 경우는 상기 영상에 해당하는 식별 정보의 입력이 완료되는 경우, 미리 설정된 특정 키가 선택되는 경우 또는 상기 촬영된 영상에 터치 입력이 발생하는 경우인 것을 특징으로 한다.
또한, 상기 식별 정보는 날짜, 시간, 장소, 사람 이름, 제목 및 세부 내용 중 적어도 하나를 포함하는 것임을 특징으로 한다.
또한, 상기 스케쥴 정보는 구체적인 스케쥴 내용, 스케쥴 제목, 스케쥴 날짜 및 시간 정보 중 적어도 하나를 포함하는 것을 특징으로 한다.
또한, 상기 스케쥴러는 스케쥴을 관리하기 위한 어플리케이션으로서, 테이블 형태로 상기 디스플레이부에 표시되는 것을 특징으로 한다.
또한, 상기 태깅 정보를 입력하기 위한 입력부를 더 포함하며, 상기 제어부는 GPS 수신기 또는 음성 인식 센서에 기초하여 상기 태깅 정보를 입력하도록 상기 입력부를 제어하는 것을 특징으로 한다.
또한, 상기 생성된 스케쥴 정보를 사운드로 변환하여 출력하는 음향 출력부를 더 포함하여 이루어지는 것을 특징으로 한다.
또한, 상기 제어부는 상기 태깅 정보 중 사람 이름 태깅이 포함되어 있는 경우, 상기 메모리로부터 상기 사람 이름 태깅에 해당하는 사진을 추출하여 상기 영상과 구별하여 표시하도록 제어하는 것을 특징으로 한다.
또한, 무선 통신부를 더 포함하며, 상기 제어부는 상기 추출된 사진에 터치 입력이 발생하는 경우, 상기 터치 입력이 발생된 사진을 전송하도록 상기 무선 통신부를 제어하는 것을 특징으로 한다.
또한, 상기 제어부는 상기 디스플레이부에 표시된 스케쥴 정보에 터치 입력이 발생하는 경우, 상기 스케쥴 정보에 해당하는 세부 정보를 표시하도록 제어하는 것을 특징으로 한다.
또한, 상기 세부 정보는 상기 영상에 해당하는 리뷰, 프리뷰 및 추천 내용 중 적어도 하나를 포함하는 것을 특징으로 한다.
또한, 본 명세서는 입력된 스케쥴 정보 및 영상 정보를 저장하는 메모리; 시간 정보를 실시간으로 확인하는 타이머부; 상기 타이머부에 의해 확인된 시간 정보에 대응하는 스케쥴 정보가 주기적으로 반복되는 이벤트인 경우, 상기 메모리에 저장된 스케쥴 정보 또는 영상 정보 중 상기 확인된 시간 정보로부터 소정 시간 전의 스케쥴 정보 또는 영상 정보를 추출하여 표시하도록 제어하기 위한 제어부; 및 상기 제어부의 제어 하에, 상기 추출된 스케쥴 정보 또는 영상 정보를 표시하기 위한 디스플레이부를 포함하여 이루어진다.
또한, 상기 영상 정보는 카메라를 통해 촬영된 영상 및 상기 영상에 해당하는 태깅 정보 중 적어도 하나를 포함하는 것을 특징으로 한다.
또한, 상기 태깅 정보는 날짜, 시간, 장소, 사람 이름 및 세부 내용 태깅 중 적어도 하나를 포함하는 것임을 특징으로 한다.
또한, 상기 제어부는 스케쥴러가 실행되는 경우, 상기 스케쥴 정보 또는 영상 정보를 표시하도록 상기 디스플레이부를 제어하며, 상기 스케쥴러는 스케쥴을 관리하기 위한 어플리케이션인 것을 특징으로 한다.
또한, 상기 제어부는 상기 스케쥴 정보 또는 영상 정보와 상기 스케쥴러를 구별하여 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 한다.
또한, 상기 제어부는 상기 확인된 시간 정보로부터 소정 시간 전의 스케쥴 정보 또는 영상 정보의 개수가 기 설정된 개수보다 큰 경우, 상기 기 설정된 개수만큼의 스케쥴 정보 또는 영상 정보를 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 한다.
또한, 상기 제어부는 상기 추출된 스케쥴 정보 또는 영상 정보가 복수 개인 경우, 일 년 전, 일 개월 전, 일 주일 전의 스케쥴 정보 또는 영상 정보의 순서로 표시하거나 이와 반대의 순서로 상기 스케쥴 정보 또는 영상 정보를 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 한다.
본 명세서에서는 카메라를 통해 촬영된 영상을 이용하여 스케쥴 작성이나 입력을 쉽게 할 뿐만 아니라, 일기장(Diary)처럼 사용할 수 있어 스케쥴러의 사용자 편의성을 증대시키는 효과가 있다.
도 1은 본 발명의 일 실시 예와 관련된 이동 단말기의 블록 구성도(block diagram)
도 2는 제 1 실시 예에 따른 스케쥴 정보가 표시되는 기능을 나타낸 도.
도 3은 제 2 실시 예에 따른 스케쥴 정보를 표시하는 기능을 나타낸 도.
도 4는 제 3 실시 예에 따른 태깅 정보에 포함된 참석자와 사진을 공유하는 기능을 나타내는 도.
도 5는 제 4 실시 예에 따른 스케쥴 정보 표시 기능을 나타낸 도.
도 6은 제 4 실시 예에 따른 스케쥴 정보에 해당하는 세부 정보를 표시하는 기능을 나타낸 도.
도 7은 제 5 실시 예에 따른 스케쥴 정보 또는 영상 정보의 표시 기능을 나타낸 도.
도 8은 제 6 실시 예에 따른 스케쥴 정보 또는 영상 정보의 표시 기능을 나타낸 도.
이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
도 1은 본 발명의 일 실시 예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.
상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170) 및 제어부(180) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 이동통신 모듈(111), 무선 인터넷 모듈(112), 근거리 통신 모듈 및 위치정보 모듈(113) 등을 포함할 수 있다.
무선 인터넷 모듈(112)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
위치정보 모듈(113)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.
예를 들어, 카메라(121)는 화상 통화 등의 경우에 사용자의 얼굴을 촬영하여 상대방에 전송함에 무리가 없도록 저 화소를 가지며, 카메라(121)는 일반적인 피사체를 촬영하고 바로 전송하지는 않는 경우가 많기에 고 화소를 가지는 것이 바람직하다. 카메라(121)는 회전 또는 팝업(pop-up) 가능하게 단말기 바디에 설치될 수도 있다.
마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
사용자 입력부(130)는 휴대 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 복수의 조작 유닛들을 포함할 수 있다. 조작 유닛들은 조작부(manipulating portion)로도 통칭 될 수 있으며, 사용자가 촉각 적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.
제1 또는 제2조작 유닛들에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작 유닛은 시작, 종료, 스크롤 등과 같은 명령을 입력받고, 제2 조작 유닛은 음향 출력부(152)에서 출력되는 음향의 크기 조절 또는 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력받을 수 있다.
센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서를 포함할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152) 및 알람부(153) 등이 포함될 수 있다.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.
메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
또한, 상기 메모리는 카메라에 의해 촬영된 영상 및 상기 영상에 해당하는 태깅 정보를 저장한다. 여기서, 영상에 해당하는 태깅 정보는 날짜, 시간, 장소, 사람 이름, 세부 내용 중 적어도 하나를 포함한다. 상기 태깅 정보 중 날짜, 시간, 장소는 사용자에 의한 입력 없이 자동으로 태깅이 된다. 또한, 상기 태깅 정보 중 사람 이름, 세부 내용 등과 같은 구체적인 사항에 대해서는 사용자에 의해 입력된다. 상기 태깅 정보의 입력은 키 입력부를 통해 입력되거나 음성을 통해 입력가능하다. 상기 음성을 통한 태깅 정보 입력은 A/V 입력부의 마이크를 통해 입력된다.
즉, 마이크는 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 상기 처리된 음성 데이터를 이용하여 태깅 정보를 생성하게 된다.
또한, 상기 메모리는 사진 정보를 저장한다. 상기 사진 정보에는 인물에 관한 사진, 경치에 관한 사진, 특정 건물, 특정 지역 등 다양한 사진이 포함된다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.
식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다.
상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
제어부(controller, 180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.
상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
또한, 상기 제어부는 이벤트가 발생하는 경우에 상기 A/V 입력부의 카메라를 통해 촬영된 영상에 해당하는 태깅 정보에 기초하여 스케쥴 정보를 생성하도록 제어한다. 여기서, 이벤트가 발생하는 경우는 상기 영상에 해당하는 태깅 정보의 입력이 완료되는 경우 또는 상기 촬영된 영상에 터치 입력이 발생하는 경우이다. 또한, 상기 스케쥴 정보는 구체적인 스케쥴 내용, 스케쥴 제목, 스케쥴 날짜 및 시간 정보 중 적어도 하나를 포함하는 정보를 말한다.
또한, 상기 제어부는 상기 생성된 스케쥴 정보가 반복되는 패턴의 이벤트인 경우에 상기 생성된 스케쥴 정보를 저장하도록 상기 메모리를 제어한다. 또한, 상기 저장된 스케쥴 정보를 포함하는 스케쥴러를 표시하도록 상기 디스플레이부를 제어한다. 여기서, 상기 제어부는 상기 생성된 스케쥴 정보 및 상기 스케쥴러를 중첩하여 표시하도록 상기 디스플레이부를 제어할 수 있다. 여기서, 상기 반복되는 패턴의 이벤트는 주, 월, 연마다 주기적으로 발생하는 이벤트에 해당한다. 일 예로, 상기 생성된 스케쥴 정보가 연마다 주기적으로 발생하는 생일, 결혼 기념일 등에 관한 것일 수 있다. 또한, 상기 스케쥴 정보는 월마다 주기적으로 발생하는 미팅 등에 관한 것일 수 있다. 또한, 상기 스케쥴 정보는 주마다 주기적으로 발생하는 미팅, 동호회 등에 관한 것일 수 있다. 상기 스케쥴러는 스케쥴 정보를 관리하기 위한 어플리케이션(응용 프로그램)으로서, 상기 스케쥴러의 형태는 다양한 모양일 수 있다. 일 예로, 테이블 형태이거나 도형 모양의 형태일 수 있다. 즉, 원형 모양의 아날로그 스케쥴러일 수 있다.
또한, 상기 제어부는 상기 태깅 정보 중 사람 이름, 즉 상기 촬영된 영상이 특정 모임인 경우 참석한 사람에 대한 이름이 포함되어 있는 경우 상기 메모리로부터 상기 사람 이름 즉, 참석한 사람에 대한 이름에 해당하는 사진을 추출하도록 제어한다. 또한, 상기 제어부는 상기 추출한 사진을 상기 영상과 구별하여 표시하도록 제어한다. 일 예로, 제어부는 상기 추출한 사진을 상기 영상의 하단 또는 상단에 표시하도록 하거나 상기 영상의 좌 또는 우측에 표시하도록 제어할 수 있다.
또한, 상기 제어부는 상기 추출된 사진에 터치 입력이 발생한 경우, 상기 터치 입력이 발생된 사진을 전송하도록 무선 통신부를 제어한다.
또한 상기 제어부는 카메라를 통해 촬영된 영상으로부터 문자 정보를 추출한 후, 상기 추출된 문자 정보를 표시하도록 하거나 스케쥴러에 저장하도록 제어한다. 여기서, 문자 정보는 상기 영상의 날짜, 시간, 장소, 내용 등을 말한다. 또한, 상기 제어부는 상기 디스플레이부에 표시된 상기 추출된 문자 정보에 대한 터치 입력이 발생한 경우, 상기 추출된 문자 정보가 저장된 스케쥴러 및 상기 스케쥴러의 특정 위치에 상기 추출된 문자 정보를 표시하도록 상기 디스플레이부를 제어한다. 여기서, 상기 특정 위치는 상기 스케쥴러의 상, 하, 좌 또는 우 중 어느 하나일 수 있다. 또한, 상기 추출된 문자 정보는 메시지 팝 업으로 표시될 수 있다.
또한, 상기 제어부는 상기 디스플레이부에 표시된 스케쥴 정보에 터치 입력이 발생하는 경우, 상기 스케쥴 정보와 관련된 세부 정보를 표시하도록 제어한다. 여기서, 상기 세부 정보는 상기 스케쥴 정보에 해당하는 리뷰(review), 프리뷰(preview), 추천 내용 등을 포함한다. 즉, 상기 제어부는 상기 디스플레이부에 표시된 스케쥴 정보에 터치 입력이 발생하는 경우, 백 그라운드(background)에서 웹 서치(web search)를 하여 상기 스케쥴 정보와 관련된 세부 정보를 표시하도록 제어한다.
또한, 제어부는 타이머부에 의해 확인된 날짜 및 시간과 메모리에 저장된 영상 정보 및 스케쥴 정보 중 적어도 하나와 비교하여 현재 시간 정보로부터 소정의 시간에 해당하는 영상 정보 및 스케쥴 정보 중 적어도 하나를 추출하여 표시하도록 제어한다. 여기서, 상기 타이머부는 현재 날짜 및 시간을 실시간으로 확인한다. 또한, 상기 메모리는 스케쥴 정보 및 영상 정보를 저장한다. 여기서, 상기 영상 정보는 카메라를 통해 촬영된 영상 및 상기 영상에 해당하는 태깅 정보를 나타낸다. 또한, 상기 소정의 시간은 일 주일, 일 개월, 일 년 전에 해당하는 시간을 말한다.
또한, 상기 제어부는 상기 영상 정보 및 상기 스케쥴 정보를 구별하여 표시하도록 상기 디스플레이부를 제어한다. 여기서, 구별하여 표시하는 것은 표시되는 위치를 다르게 하거나 크기를 다르게 하여 표시하는 것일 수 있다.
또한, 상기 제어부는 상기 현재 시간 정보로부터 소정 시간에 해당하는 상기 영상 정보 및 스케쥴 정보 중 적어도 하나의 개수가 기 설정된 개수보다 큰 경우, 상기 기 설정된 소정 개수만큼의 영상 정보 및 스케쥴 정보 중 적어도 하나를 표시하도록 상기 디스플레이부를 제어한다. 여기서, 기 설정된 개수는 사용자에 의해 변경가능한 값이거나 상기 단말에 디폴트로 설정된 값일 수 있다.
또한, 제어부는 상기 추출된 영상 정보 및 스케쥴 정보 중 적어도 하나가 복수 개인 경우, 일 년, 일 개월, 일 주일 전 순서 또는 이와 반대의 순서로 표시되도록 상기 디스플레이부를 제어한다. 또한, 상기 추출된 영상 정보 및 스케쥴 정보의 우선 순위에 따라 표시하도록 제어한다. 여기서, 상기 우선 순위는 사용자에 의해 미리 설정된다. 상기 제어부는 상기 우선 순위에 따라 표시되는 상기 영상 정보 및 스케쥴 정보의 크기나 색깔을 다르게 하여 표시하도록 한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
이하에서는 상기와 같이 구성된 단말기에서 구현될 수 있는 제어 방법에 관련된 실시 예들에 대하여 첨부된 도면을 참조하여 설명한다. 후술하는 실시 예들은 단독으로 또는 서로 조합되어 사용될 수 있다. 또한, 후술하는 실시 예들이 상술한 사용자 인터페이스(UI)와 조합되어 사용될 수도 있다.
영상에 해당하는 식별 정보를 이용하여 스케쥴 정보 생성 및 저장
이하에서, 카메라로 촬영된 영상에 해당하는 식별 정보를 이용하여 스케쥴 정보를 생성 및 스케쥴러에 저장하는 경우에 대해 구체적으로 살펴보기로 한다.
상기 식별 정보는 태깅(Tagging) 정보 또는 문자 정보에 해당한다.
제 1 실시 예
제 1 실시 예는 태깅 정보를 기초로 하여 스케쥴 정보를 생성하며 스케쥴러에 저장하는 방법을 제공한다.
도 2는 제 1 실시 예에 따른 스케쥴 정보가 표시되는 기능을 나타낸 도이다.
먼저, 제어부는 이벤트가 발생하는 경우, 카메라에 의해 촬영된 영상에 해당하는 태깅 정보에 기초하여 스케쥴 정보를 생성하며, 상기 생성된 스케쥴 정보를 스케쥴러에 저장하도록 메모리를 제어한다. 또한, 상기 제어부는 상기 생성된 스케쥴 정보 및 상기 생성된 스케쥴 정보가 저장된 스케쥴러를 표시하도록 한다. 상기 제어부의 제어 하에, 디스플레이부는 상기 생성된 스케쥴 정보를 표시한다. 또한, 디스플레이부는 상기 생성된 스케쥴 정보가 저장된 스케쥴러를 표시한다.
여기서, 이벤트가 발생하는 경우는 상기 영상에 해당하는 태깅 정보의 입력이 완료되는 경우, 미리 설정된 특정 키가 선택되는 경우, 상기 카메라에 의해 영상이 촬영되는 경우 또는 상기 촬영된 영상에 터치 입력이 발생하는 경우이다.
상기 태깅 정보의 입력이 완료되는 경우는 사용자가 직접 상기 촬영된 영상에 태깅 정보를 입력하거나 음성을 통해 태깅 정보가 입력되는 경우를 말한다. 또한, 상기 카메라에 의해 영상이 촬영되는 경우는 사용자의 개입 없이, 단말에 의해 자동으로 태깅 정보가 입력되는 경우를 말한다. 또한, 미리 설정된 특정 키가 선택되거나 터치 입력이 발생하는 경우는 사용자의 선택에 의해 특정 이벤트가 발생하는 경우를 말한다.
여기서, 상기 스케쥴 정보는 구체적인 스케쥴 내용, 스케쥴 제목, 스케쥴 날짜 및 시간 정보 중 적어도 하나를 포함하는 정보를 말한다.
여기서, 상기 영상에 해당하는 태깅 정보는 날짜, 시간, 장소, 사람 이름 및 세부 내용 태깅 중 적어도 하나를 포함한다. 상기에서 살핀 것과 같이, 상기 태깅 정보 중 날짜, 시간, 장소 태깅은 사용자에 의한 입력 없이 자동으로 태깅이 가능하다. 또한, 상기 태깅 정보 중 사람 이름, 세부 내용 등과 같은 구체적인 사항에 대해서는 사용자에 의해 직접 입력되거나 또는 음성을 통해 입력된다. 즉, 상기 태깅 정보의 입력은 키 입력부를 통해 입력되거나 음성을 통해 입력 가능하다. 상기 음성을 통한 태깅 정보 입력은 A/V 입력부의 마이크를 통해 음성 신호가 음성 데이터로 변환되어 태깅 정보를 생성하게 된다.
즉, 마이크는 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 상기 처리된 음성 데이터를 이용하여 태깅 정보를 생성하게 된다.
또한, 상기 스케쥴러는 스케쥴을 관리하기 위한 어플리케이션으로서, 다양한 형태의 모양을 갖을 수 있다. 일 예로, 상기 스케쥴러는 원형의 아날로그 시계 모양, 테이블 모양 등으로 디스플레이부에 표시될 수 있다.
도 2에 도시된 바와 같이, 사용자에 의해 터치 입력이 발생한 경우, 카메라에 의해 촬영된 영상에 대한 스케쥴 정보가 생성되어 스케쥴러와 함께 디스플레이부에 표시된다.(S210,S220) 여기서, 상기 스케쥴 정보는 상기 스케쥴러의 상, 하, 좌 또는 우측 중 어느 하나의 위치에 표시되거나 메시지 팝 업 형태로 상기 스케쥴러에 중첩하여 표시될 수 있다.
제 2 실시 예
제 2 실시 예는 태깅 정보가 주기적으로 반복되는 패턴의 이벤트인 경우에 스케쥴 정보를 스케쥴러에 저장하는 기능을 제공한다.
도 3은 제 2 실시 예에 따른 스케쥴 정보를 표시하는 기능을 나타낸 도이다.
먼저, 제어부는 카메라에 의해 촬영된 영상에 해당하는 태깅 정보가 반복되는 패턴의 이벤트인 경우에 상기 생성된 스케쥴 정보를 상기 스케쥴러에 미리 저장하도록 제어한다. 여기서, 상기 반복되는 패턴의 이벤트는 소정 시간마다 주기적으로 발생하는 이벤트를 말한다. 일 예로, 상기 생성된 스케쥴 정보는 연마다 주기적으로 발생하는 생일, 결혼 기념일 등에 관한 것일 수 있다. 또한, 상기 스케쥴 정보는 월마다 주기적으로 발생하는 업무 미팅 등에 관한 것일 수 있다. 또한, 상기 스케쥴 정보는 주마다 주기적으로 발생하는 팀 미팅, 동호회 모임 등에 관한 것일 수 있다. 상기 소정 시간은 일 주일, 일 개월, 일 년 등에 해당하는 시간을 말한다.
즉, 상기 제어부는 상기 태깅 정보가 소정 시간마다 주기적으로 반복되는 이벤트인 경우, 상기 생성된 스케쥴 정보를 상기 소정 시간마다 미리 스케쥴러에 저장하도록 제어한다.
또한, 상기 스케쥴러는 스케쥴를 관리하기 위한 어플리케이션(응용 프로그램)으로서, 상기 스케쥴러의 형태는 다양한 모양일 수 있다. 일 예로, 테이블 형태이거나 도형 모양의 형태일 수 있다. 일 예로, 도형 모양의 경우에는 상기 스케쥴러는 원형 모양의 아날로그 시계 형태일 수 있다.
예를 들면, 카메라에 의해 촬영된 영상에 해당하는 태깅 정보가 생일 또는 결혼 기념일 등과 같이 1년을 주기로 반복되는 이벤트인 경우, 상기 태깅 정보에 포함된 날짜 및 시간으로부터 1년 후 마다 해당하는 날짜 및 시간에 상기 반복되는 이벤트를 스케쥴러에 미리 저장하도록 한다. 즉, 반복되는 이벤트의 현재 날짜 및 시간이 2010년 9월 6일 오전 9시인 경우, 2011년 9월 6일 오전 9시, 2012년 9월 6일 오전 9시…에 상기 반복되는 이벤트를 스케쥴러에 미리 저장하도록 한다.
또한, 상기 제어부는 상기 생성된 스케쥴 정보를 스케쥴러에 미리 저장할 것인지에 대한 메시지 팝 업 창을 표시하도록 디스플레이부를 제어한다. 즉, 상기 생성된 스케쥴 정보는 사용자의 선택에 의해 상기 스케쥴러에 미리 저장될 수 있다. 여기서, 사용자의 선택은 상기 표시된 메시지 팝 업 창의 터치 입력일 수 있다.
도 3(b)에 도시된 바와 같이, 디스플레이부는 상기 제어부의 제어 하에, 상기 생성된 스케쥴 정보를 상기 스케쥴러에 미리 저장할 것인지에 대한 여부를 나타내는 메시지 팝 업 창을 표시한다.(S300)
제 3 실시 예
제 3 실시 예는 태깅 정보 중 사람 이름 태깅이 포함되어 있는 경우, 상기 사람 이름에 해당하는 사진을 추출하여 표시하도록 하는 기능을 제공한다.
도 4는 제 3 실시 예에 따른 태깅 정보에 포함된 참석자와 사진을 공유하는 기능을 나타내는 도이다.
제어부는 카메라에 의해 촬영된 영상에 해당하는 태깅 정보 중 사람 이름이 포함되어 있는 경우 메모리로부터 상기 사람 이름에 해당하는 사진을 추출하여 상기 추출한 사진을 표시하도록 디스플레이부를 제어한다. 즉, 제어부는 카메라에 의해 촬영된 영상에 참석자에 대한 태깅이 있는 경우, 상기 참석자에 해당하는 사진을 메모리로부터 추출하여 디스플레이부에 표시하도록 제어한다.
또한, 상기 제어부는 상기 추출한 사진을 상기 촬영된 영상과 구별하여 표시하도록 제어한다. 일 예로, 제어부는 상기 추출한 사진을 상기 영상의 하단, 상단, 우측 및 좌측 중 어느 하나에 표시하도록 제어한다. 또한, 상기 제어부는 상기 추출한 사진을 상기 영상에 중첩하여 표시하도록 디스플레이부를 제어한다.
또한, 상기 제어부는 상기 추출된 사진에 터치 입력과 같은 이벤트가 발생한 경우, 상기 이벤트가 발생된 사진을 해당 사람에게 전송하도록 무선 통신부를 제어한다.
도 4에 도시된 바와 같이, 디스플레이부는 상기 제어부의 제어 하에, 상기 추출된 사진을 상기 촬영된 영상의 하단에 표시한다.(S400) 또한, 사용자가 카메라에 의해 촬영된 영상 하단에 표시된 참석자의 사진을 터치하면, 상기 터치된 사진은 상기 참석자에게 전송되어 사진을 공유할 수 있게 된다.
제 4 실시 예
제 4 실시 예는 카메라로 촬영된 영상에 해당하는 문자 정보를 추출하여 스케쥴 정보를 생성 및 스케쥴러에 저장하는 기능을 제공한다.
도 5는 제 4 실시 예에 따른 스케쥴 정보 표시 기능을 나타낸 도이다.
제어부는 카메라를 통해 촬영된 영상으로부터 문자 정보를 추출하여 스케쥴 정보를 생성하며, 상기 생성된 스케쥴 정보를 스케쥴러에 저장하도록 제어한다. 여기서, 문자 정보는 상기 영상과 관련된 날짜, 시간, 장소, 내용 등을 포함하는 정보를 말한다. 또한, 상기 영상은 영화, 연극, 뮤지컬 공연 등의 포스터 사진일 수 있다.
또한, 상기 제어부는 상기 생성된 스케쥴 정보를 스케쥴러에 저장 여부를 나타내는 메시지 팝 업 창을 표시하도록 디스플레이부를 제어한다. 상기 제어부는 상기 메시지 팝 업 창에 대한 터치 입력이 발생한 경우, 상기 생성된 스케쥴 정보를 스케쥴러에 저장하도록 메모리를 제어한다.
또한, 상기 제어부는 상기 생성된 스케쥴 정보와 상기 생성된 스케쥴 정보를 포함하는 스케쥴러를 구별하여 표시하도록 제어한다. 여기서, 상기 스케쥴러에는 스케쥴 정보가 포함되어 있는 경우와 포함되어 있지 않은 경우가 구별되도록 표시된다. 일 예로, 상기 스케쥴러에 표시된 날짜의 크기를 크게 하거나 색깔을 다르게 하여 스케쥴 정보가 없는 경우와 구별되도록 표시될 수 있다.
또한, 상기 스케쥴 정보는 스케쥴러의 상, 하, 좌 및 우측 중 어느 하나에 표시될 수 있다. 또한, 상기 스케쥴 정보는 스케쥴러에 중첩하여 메시지 팝 업 형태로 표시될 수 있다.
도 5에 도시된 바와 같이, 디스플레이부는 상기 제어부의 제어 하에, 상기 생성된 스케쥴 정보를 표시하며(S500), 상기 생성된 스케쥴 정보가 저장된 스케쥴러를 표시한다.(S510)
도 6은 제 4 실시 예에 따른 스케쥴 정보에 해당하는 세부 정보를 표시하는 기능을 나타낸 도이다.
제어부는 디스플레이부에 표시된 스케쥴 정보에 터치 입력이 발생하는 경우, 상기 스케쥴 정보와 관련된 세부 정보를 표시하도록 제어한다. 즉, 상기 제어부는 상기 디스플레이부에 표시된 스케쥴 정보에 터치 입력이 발생하는 경우, 웹 서치(web search)를 통해 상기 스케쥴 정보와 관련된 세부 정보를 표시하도록 제어한다. 여기서, 웹 서치는 백 그라운드(background)에서 실행되고 있는 검색 어플리케이션(응용 프로그램)을 통해 수행된다.
또한, 상기 세부 정보는 상기 스케쥴 정보에 해당하는 리뷰(review), 프리뷰(preview), 추천 내용 등을 포함한다. 일 예로, 세부 정보는 상기 스케쥴 정보가 영화에 해당하는 정보인 경우, 상기 영화에 대한 사람들의 리뷰, 상기 영화에 대한 프리뷰, 상기 영화에 대한 사람들의 댓글 등 일 수 있다.
도 6에 도시된 바와 같이, 디스플레이부는 상기 제어부의 제어 하에, 터치 입력이 발생한 경우, 스케쥴 정보와 관련된 세부 정보를 표시한다.(S600)
현재 날짜로부터 소정 시간 전의 스케쥴 정보 또는 영상 정보 표시 기능
이하에서, 현재 날짜로부터 일 주일 전, 일 개월 전, 일 년 전 등에 저장되었던 스케쥴 정보 또는 영상 정보를 표시하는 방법에 대해서 구체적으로 살펴보기로 한다.
제 5 실시 예
제 5 실시 예는 현재 날짜에서 소정 시간 전의 스케쥴 정보 또는 영상 정보를 표시하도록 하는 방법을 제공한다.
도 7은 제 5 실시 예에 따른 스케쥴 정보 또는 영상 정보의 표시 기능을 나타낸 도이다.
제어부는 타이머에 의해 확인된 시간 정보와 메모리에 저장된 스케쥴 정보 또는 영상 정보를 비교하여 현재 시간 정보로부터 소정 시간 전의 스케쥴 정보 또는 영상 정보를 추출하여 표시하도록 제어한다. 여기서, 상기 시간 정보란 날짜 및 시간을 말한다. 즉, 상기 제어부는 상기 타이머부에 의해 확인된 날짜에 해당하는 스케쥴 정보가 주기적으로 반복되는 이벤트인 경우, 상기 메모리에 저장된 스케쥴 정보 또는 영상 정보 중 상기 확인된 날짜로부터 소정 시간 전의 스케쥴 정보 또는 영상 정보를 추출하여 표시하도록 제어한다. 여기서, 주기적으로 반복되는 이벤트는 생일, 결혼 기념일, 미팅 등과 같이 매주, 매월, 매년 정기적으로 발생하는 이벤트를 말한다. 상기 타이머는 시계를 말하며, 상기 시계는 날짜 및 시간을 표시한다.
또한, 상기 제어부는 상기 스케쥴 정보 또는 영상 정보를 스케쥴러가 실행되는 경우 표시되도록 제어한다. 상기 스케쥴러는 스케쥴을 관리하기 위한 어플리케이션으로 다양한 형태를 가질 수 있다. 일 예로, 상기 스케쥴러는 테이블 형태일 수 있다.
상기 스케쥴 정보는 구체적인 스케쥴 내용, 스케쥴 제목, 날짜 및 시간 정보 중 적어도 하나를 포함한다. 또한, 상기 영상 정보는 카메라를 통해 촬영된 영상 및 상기 영상에 해당하는 태깅 정보 중 적어도 하나를 포함한다. 상기 소정 시간은 일 주일, 일 개월, 일 년 등의 시간을 말한다.
또한, 상기 제어부는 타이머부에 의해 확인된 시간 정보로부터 소정 시간 전의 스케쥴 정보 또는 영상 정보의 개수가 기 설정된 개수보다 큰 경우, 상기 기 설정된 소정 개수만큼의 스케쥴 정보 또는 영상 정보를 표시하도록 상기 디스플레이부를 제어한다. 여기서, 기 설정된 개수는 사용자에 의해 설정되어 변경할 수 있는 값이거나 상기 단말에 디폴트로 설정된 값에 해당한다.
제 6 실시 예
제 6 실시 예는 현재 날짜에서 소정 시간 전의 스케쥴 정보 또는 영상 정보가 복수인 경우, 상기 스케쥴 정보 또는 영상 정보를 표시하도록 하는 방법을 제공한다.
도 8은 제 6 실시 예에 따른 스케쥴 정보 또는 영상 정보의 표시 기능을 나타낸 도이다.
제어부는 메모리로부터 추출된 스케쥴 정보 또는 영상 정보가 복수 개인 경우, 일 년, 일 개월, 일 주일 전 순서로 또는 이와 반대의 순서로 표시되도록 상기 디스플레이부를 제어한다.
또한, 상기 추출된 스케쥴 정보 또는 영상 정보의 우선 순위에 따라 표시하도록 디스플레이부를 제어한다. 여기서, 상기 우선 순위는 사용자에 의해 미리 설정될 수 있다. 또한, 상기 제어부는 상기 우선 순위에 따라 표시되는 상기 스케쥴 정보 또는 영상 정보들의 크기나 색깔을 다르게 표시하도록 디스플레이부를 제어한다.
도 8에 도시된 바와 같이, 디스플레이부는 상기 제어부의 제어 하에, 현재 날짜로부터 일 년 전에 해당하는 영상 정보를 표시하며(S800), 그 아래에 현재 날짜로부터 일 개월 전에 해당하는 영상 정보를 표시한다.(S810)
또한, 본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
이상, 본 발명의 바람직한 실시 예를 첨부된 도면들을 참조로 설명하였다.
여기서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.

Claims (25)

  1. 렌즈를 통해 촬영한 영상을 제공하는 카메라;
    상기 카메라를 통해 촬영된 영상 및 상기 영상에 해당하는 식별 정보를 저장하는 메모리;
    상기 카메라에 의해 촬영된 영상에 해당하는 식별 정보에 기초하여 스케쥴 정보를 생성하며 상기 생성된 스케쥴 정보를 스케쥴러에 저장하도록 제어하기 위한 제어부; 및
    상기 제어부의 제어 하에, 상기 생성된 스케쥴 정보 또는 상기 스케쥴러를 표시하기 위한 디스플레이부를 포함하여 이루어지는 것을 특징으로 하는 단말.
  2. 제 1항에 있어서,
    상기 식별 정보는 상기 영상에 해당하는 태깅 정보 또는 문자 정보인 것을 특징으로 하는 단말.
  3. 제 2항에 있어서,
    상기 제어부는 상기 태깅 정보가 소정 시간마다 주기적으로 반복되는 이벤트인 경우, 상기 생성된 스케쥴 정보를 상기 소정 시간마다 미리 스케쥴러에 저장하도록 제어하는 것을 특징으로 하는 단말.
  4. 제 3항에 있어서,
    상기 소정 시간은 일 주일, 일 개월, 일 년인 것을 특징으로 하는 단말.
  5. 제 1항에 있어서,
    상기 제어부는 상기 생성된 스케쥴 정보를 상기 스케쥴러에 중첩하여 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 단말.
  6. 제 1항에 있어서,
    상기 제어부는 이벤트가 발생하는 경우, 상기 식별 정보에 기초하여 스케쥴 정보를 생성하도록 제어하는 것을 특징으로 하는 단말.
  7. 제 6항에 있어서,
    상기 이벤트가 발생하는 경우는 상기 영상에 해당하는 식별 정보의 입력이 완료되는 경우, 미리 설정된 특정 키가 선택되는 경우 또는 상기 촬영된 영상에 터치 입력이 발생하는 경우인 것을 특징으로 하는 단말.
  8. 제 1항에 있어서,
    상기 식별 정보는 날짜, 시간, 장소, 사람 이름, 제목 및 세부 내용 중 적어도 하나를 포함하는 것임을 특징으로 하는 단말.
  9. 제 1항에 있어서,
    상기 스케쥴 정보는 구체적인 스케쥴 내용, 스케쥴 제목, 스케쥴 날짜 및 시간 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 단말.
  10. 제 1항에 있어서,
    상기 스케쥴러는 스케쥴을 관리하기 위한 어플리케이션으로서, 테이블 형태로 상기 디스플레이부에 표시되는 것을 특징으로 하는 단말.
  11. 제 2항에 있어서,
    상기 태깅 정보를 입력하기 위한 입력부를 더 포함하며, 상기 제어부는 GPS 수신기 또는 음성 인식 센서에 기초하여 상기 태깅 정보를 입력하도록 상기 입력부를 제어하는 것을 특징으로 하는 단말.
  12. 제 1항에 있어서,
    상기 생성된 스케쥴 정보를 사운드로 변환하여 출력하는 음향 출력부를 더 포함하여 이루어지는 것을 특징으로 하는 단말.
  13. 제 2항에 있어서,
    상기 제어부는 상기 태깅 정보 중 사람 이름 태깅이 포함되어 있는 경우, 상기 메모리로부터 상기 사람 이름 태깅에 해당하는 사진을 추출하여 상기 영상과 구별하여 표시하도록 제어하는 것을 특징으로 하는 단말.
  14. 제 13항에 있어서,
    무선 통신부를 더 포함하며,
    상기 제어부는 상기 추출된 사진에 터치 입력이 발생하는 경우, 상기 터치 입력이 발생된 사진을 전송하도록 상기 무선 통신부를 제어하는 것을 특징으로 하는 단말.
  15. 제 1항에 있어서,
    상기 제어부는 상기 디스플레이부에 표시된 스케쥴 정보에 터치 입력이 발생하는 경우, 상기 스케쥴 정보에 해당하는 세부 정보를 표시하도록 제어하는 것을 특징으로 하는 단말.
  16. 제 15항에 있어서,
    상기 세부 정보는 상기 영상에 해당하는 리뷰, 프리뷰 및 추천 내용 중 적어도 하나를 포함하는 것을 특징으로 하는 단말.
  17. 입력된 스케쥴 정보 및 영상 정보를 저장하는 메모리;
    시계에 의해 확인된 시간 정보에 대응하는 스케쥴 정보가 주기적으로 반복되는 이벤트인 경우, 상기 메모리에 저장된 스케쥴 정보 또는 영상 정보 중에서 상기 확인된 시간 정보로부터 소정 시간 전의 스케쥴 정보 또는 영상 정보를 추출하여 표시하도록 제어하기 위한 제어부; 및
    상기 제어부의 제어 하에, 상기 추출된 스케쥴 정보 또는 영상 정보를 표시하기 위한 디스플레이부를 포함하여 이루어지는 것을 특징으로 하는 단말.
  18. 제 17항에 있어서,
    상기 스케쥴 정보는 구체적인 스케쥴 내용, 스케쥴 제목, 스케쥴 날짜 및 시간 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 단말.
  19. 제 17항에 있어서,
    상기 영상 정보는 카메라를 통해 촬영된 영상 및 상기 영상에 해당하는 태깅 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 단말.
  20. 제 19항에 있어서,
    상기 태깅 정보는 날짜, 시간, 장소, 사람 이름 및 세부 내용 태깅 중 적어도 하나를 포함하는 것임을 특징으로 하는 단말.
  21. 제 17항에 있어서,
    상기 소정 시간은 일 주일, 일 개월 또는 일 년인 것을 특징으로 하는 단말.
  22. 제 17항에 있어서,
    상기 제어부는 스케쥴러가 실행되는 경우, 상기 스케쥴 정보 또는 영상 정보를 표시하도록 상기 디스플레이부를 제어하며, 상기 스케쥴러는 스케쥴을 관리하기 위한 어플리케이션인 것을 특징으로 하는 단말.
  23. 제 22항에 있어서,
    상기 제어부는 상기 스케쥴 정보 또는 영상 정보와 상기 스케쥴러를 구별하여 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 단말.
  24. 제 17항에 있어서,
    상기 제어부는 상기 확인된 시간 정보로부터 소정 시간 전의 스케쥴 정보 또는 영상 정보의 개수가 기 설정된 개수보다 큰 경우, 상기 기 설정된 개수만큼의 스케쥴 정보 또는 영상 정보를 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 단말.
  25. 제 17항에 있어서,
    상기 제어부는 상기 추출된 스케쥴 정보 또는 영상 정보가 복수 개인 경우, 일 년 전, 일 개월 전, 일 주일 전의 스케쥴 정보 또는 영상 정보의 순서로 표시하거나 이와 반대의 순서로 상기 스케쥴 정보 또는 영상 정보를 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 단말.
PCT/KR2010/006441 2010-09-17 2010-09-17 이동 통신 단말기에서의 스케쥴 입력 방법 및 장치 Ceased WO2012036331A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/202,992 US8671348B2 (en) 2010-09-17 2010-09-17 Method and apparatus for inputting schedule in mobile communication terminal
PCT/KR2010/006441 WO2012036331A1 (ko) 2010-09-17 2010-09-17 이동 통신 단말기에서의 스케쥴 입력 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2010/006441 WO2012036331A1 (ko) 2010-09-17 2010-09-17 이동 통신 단말기에서의 스케쥴 입력 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2012036331A1 true WO2012036331A1 (ko) 2012-03-22

Family

ID=45831773

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/006441 Ceased WO2012036331A1 (ko) 2010-09-17 2010-09-17 이동 통신 단말기에서의 스케쥴 입력 방법 및 장치

Country Status (2)

Country Link
US (1) US8671348B2 (ko)
WO (1) WO2012036331A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102053901B1 (ko) * 2012-08-16 2019-12-09 삼성전자주식회사 일정 관리 방법, 일정 관리 서버 및 그를 위한 이동 단말
US20140108963A1 (en) * 2012-10-17 2014-04-17 Ponga Tools, Inc. System and method for managing tagged images
KR102479495B1 (ko) * 2015-09-07 2022-12-21 엘지전자 주식회사 이동단말기 및 그의 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040076624A (ko) * 2003-02-25 2004-09-01 캐논 가부시끼가이샤 물품관리장치 및 방법
KR20060075986A (ko) * 2004-12-29 2006-07-04 삼성전자주식회사 자동 일정관리 및 실행을 위한 장치 및 방법
KR20100045296A (ko) * 2008-10-23 2010-05-03 김현성 네비게이션 장치, 네비게이션 장치를 이용한 일정 관리 시스템 및 방법
KR20100079463A (ko) * 2008-12-31 2010-07-08 윤성로 촬상영상을 식별하는 카메라폰

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6006227A (en) * 1996-06-28 1999-12-21 Yale University Document stream operating system
JP2002344867A (ja) * 2001-05-18 2002-11-29 Fujitsu Ltd 画像データ格納システム
US6690883B2 (en) * 2001-12-14 2004-02-10 Koninklijke Philips Electronics N.V. Self-annotating camera
US20090280859A1 (en) * 2008-05-12 2009-11-12 Sony Ericsson Mobile Communications Ab Automatic tagging of photos in mobile devices
WO2010047336A1 (ja) * 2008-10-20 2010-04-29 株式会社キャメロット 画像撮影システム及び画像撮影方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040076624A (ko) * 2003-02-25 2004-09-01 캐논 가부시끼가이샤 물품관리장치 및 방법
KR20060075986A (ko) * 2004-12-29 2006-07-04 삼성전자주식회사 자동 일정관리 및 실행을 위한 장치 및 방법
KR20100045296A (ko) * 2008-10-23 2010-05-03 김현성 네비게이션 장치, 네비게이션 장치를 이용한 일정 관리 시스템 및 방법
KR20100079463A (ko) * 2008-12-31 2010-07-08 윤성로 촬상영상을 식별하는 카메라폰

Also Published As

Publication number Publication date
US8671348B2 (en) 2014-03-11
US20130174054A1 (en) 2013-07-04

Similar Documents

Publication Publication Date Title
WO2014137074A1 (en) Mobile terminal and method of controlling the mobile terminal
WO2017142278A1 (en) Apparatus and method for providing dynamic panorama function
WO2011021907A2 (en) Metadata tagging system, image searching method and device, and method for tagging a gesture thereof
WO2011074796A2 (en) Method and system for generating data using a mobile device with a projection function
WO2014025219A1 (en) Portable terminal device and method for operating the same
WO2016028042A1 (en) Method of providing visual sound image and electronic device implementing the same
WO2015105345A1 (en) Method and apparatus for screen sharing
WO2019027090A1 (ko) 이동 단말기 및 그 제어 방법
WO2012030001A1 (ko) 이동 단말기 및 그 동작 제어 방법
WO2013115541A1 (ko) 단말기, 영상 통화 제어 서버, 및 이를 이용한 영상 통화 시스템 및 방법
WO2014107025A1 (en) Method and apparatus for controlling contents in electronic device
WO2018070762A1 (en) Device and method of displaying images
WO2015167236A1 (en) Electronic device and method for providing emergency video call service
WO2020159213A1 (ko) 상황에 기반한 사용자 맞춤형 설정 방법 및 장치
WO2015005722A1 (en) Mobile device, display apparatus and method for sharing contents thereof
WO2019132306A1 (ko) 사진촬영에 음악을 링크하는 전자 장치 및 이의 제어 방법
WO2014035171A1 (ko) 전자장치에서 영상통화중 파일 전송 방법 및 장치
WO2012036331A1 (ko) 이동 통신 단말기에서의 스케쥴 입력 방법 및 장치
WO2018124689A1 (en) Managing display of content on one or more secondary device by primary device
WO2021162323A1 (ko) 전자 장치 및 상기 전자 장치를 이용한 콘텐츠 운용 방법
WO2014038912A1 (en) Method and device for transmitting information related to event
WO2011157239A2 (zh) 一种信息生成和处理方法、装置以及终端设备
WO2013002569A2 (ko) 인맥관리처리부가 구비된 모바일기기 및 인맥관리방법
WO2015060685A1 (en) Electronic device and method of providing advertisement data by electronic device
WO2017122961A1 (en) Display apparatus and operating method thereof

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 13202992

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10857316

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10857316

Country of ref document: EP

Kind code of ref document: A1