[go: up one dir, main page]

WO2025028784A1 - 전자 장치 및 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 방법 - Google Patents

전자 장치 및 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 방법 Download PDF

Info

Publication number
WO2025028784A1
WO2025028784A1 PCT/KR2024/008021 KR2024008021W WO2025028784A1 WO 2025028784 A1 WO2025028784 A1 WO 2025028784A1 KR 2024008021 W KR2024008021 W KR 2024008021W WO 2025028784 A1 WO2025028784 A1 WO 2025028784A1
Authority
WO
WIPO (PCT)
Prior art keywords
scan
electronic device
pen
area
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/KR2024/008021
Other languages
English (en)
French (fr)
Inventor
김태건
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020230125835A external-priority patent/KR20250020255A/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of WO2025028784A1 publication Critical patent/WO2025028784A1/ko
Anticipated expiration legal-status Critical
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Definitions

  • Various embodiments of the present disclosure relate to scanning for touch sensing of a display in an electronic device.
  • input devices such as touch input devices (e.g., touchscreens) or pen input devices (e.g., digitizers) are widely used for user interfaces in electronic devices.
  • touch input devices e.g., touchscreens
  • pen input devices e.g., digitizers
  • a touch screen can provide a touch input signal by detecting touch, and the touch detection method includes, for example, a resistive method, a capacitive method, an infrared method, an ultrasonic method, and/or a camera method.
  • the capacitive method can be widely applied to portable electronic devices such as smartphones and tablet PCs.
  • the digitizer can provide pen input signals by an electronic pen or a stylus pen, and the pen recognition methods include pressure-sensitive, capacitive, passive, active, and electromagnetic resonance or induction (EMR) methods.
  • EMR electromagnetic resonance or induction
  • touch input actions and pen input actions can be performed independently.
  • the electronic device can perform a scan of the entire area of the touchscreen to detect touch, and when the scan results in a touch (e.g., a touch by a palm), the electronic device can perform a pen input recognition action by the pen input device.
  • a touch e.g., a touch by a palm
  • some touch inputs may be unnecessary inputs detected as additional inputs for pen input. For example, when an electronic device places a palm on a touchscreen and writes or draws with a pen, the electronic device may perform scanning of the entire area of the touchscreen that is not related to the pen input, even though scanning of some areas does not need to be performed, resulting in unnecessary power consumption.
  • a partial scan is performed by identifying a scan area and a scan exclusion area among the entire area of a touchscreen instead of a full scan and performing a scan only on the scan area, thereby reducing power consumption, and a scanning method for touch sensing of a display in the electronic device can be provided.
  • An electronic device may include a display including a touch sensor circuit and a pen input circuit, a memory storing instructions, and a processor.
  • a scan method for touch sensing of a display in an electronic device may include an operation of identifying a first palm position on the display through a touch sensor circuit and identifying a hover-in state by a pen device through the pen input circuit.
  • the method may include an operation of identifying a first position of the pen device, first tilt information of the pen device, and a first screen state of the display based on the identification of the first palm position and the hover-in state.
  • the method may include an operation of identifying a first scan area and a first scan exclusion area among scan areas by the touch sensor circuit based on the first palm position, the first position of the pen device, the first tilt information, and the first screen state.
  • the method may include an operation of performing a scan on the first scan area through the touch sensor circuit and performing a first partial scan that does not perform a scan on the first scan exclusion area.
  • a non-transitory storage medium storing commands
  • the commands when executed by an electronic device, are set to cause the electronic device to perform at least one operation
  • the at least one operation may include an operation of identifying a first palm position on the display through a touch sensor circuit and identifying a hover-in state by the pen device through a pen input circuit.
  • the at least one operation may include an operation of identifying a first position of the pen device, first tilt information of the pen device, and a first screen state of the display based on the identification of the first palm position and the hover-in state.
  • the at least one operation may include an operation of identifying a first scan area and a first scan exclusion area among scan areas by the touch sensor circuit based on the first palm position, the first position of the pen device, the first tilt information, and the first screen state.
  • the at least one operation may include performing a scan on the first scan area via the touch sensor circuit and performing a first partial scan that does not perform a scan on the first scan exclusion area.
  • power consumption when writing or drawing with a pen while placing a palm on an electronic device, power consumption can be reduced by performing a partial scan that identifies a scan area and a scan exclusion area among the entire area of the touchscreen and performs a scan only on the scan area instead of a full scan.
  • FIG. 1 is a block diagram of an electronic device within a network environment according to one embodiment.
  • FIG. 2 is a drawing showing an electronic device and a pen device according to one embodiment.
  • FIG. 3 is a block diagram of an electronic device according to one embodiment.
  • FIG. 4 is a diagram illustrating full scan and partial scan operation procedures in an electronic device according to one embodiment.
  • FIG. 5 is a flowchart illustrating a scan operation for touch sensing of a display in an electronic device according to one embodiment.
  • FIG. 6 is a drawing showing the position of the palm and the position of the pen device on the display screen of the electronic device according to one embodiment.
  • FIG. 7a is a drawing for explaining tilt information of a pen device in an electronic device according to one embodiment.
  • FIG. 7b is a diagram illustrating a case where a pen device is vertically approached to an electronic device according to one embodiment.
  • FIG. 7c is a drawing showing a case where the pen device is approached while tilted to the left in an electronic device according to one embodiment.
  • FIG. 8 is a drawing for explaining the horizontal and vertical states of a display according to one embodiment.
  • FIG. 9A is a diagram showing a scan area and a scan exclusion area when a user writes with his or her right hand in a horizontal position on a display according to one embodiment.
  • FIG. 9b is a diagram showing a scan area and a scan exclusion area when a user writes with his or her left hand in a horizontal position on a display according to one embodiment.
  • FIG. 10A is a drawing showing a scan area and a scan exclusion area when a user writes with his or her right hand in a vertical position on a display according to one embodiment.
  • FIG. 10b is a drawing showing a scan area and a scan exclusion area when a user writes with his or her left hand in a vertical position on a display according to one embodiment.
  • the term “user” used in various embodiments may refer to a person using an electronic device or a device using an electronic device (e.g., an artificial intelligence electronic device).
  • FIG. 1 is a block diagram of an electronic device (101) within a network environment (100) according to one embodiment.
  • an electronic device (101) may communicate with an electronic device (102) via a first network (198) (e.g., a short-range wireless communication network), or may communicate with at least one of an electronic device (104) or a server (108) via a second network (199) (e.g., a long-range wireless communication network).
  • the electronic device (101) may communicate with the electronic device (104) via the server (108).
  • the electronic device (101) may include a processor (120), a memory (130), an input module (150), an audio output module (155), a display module (160), an audio module (170), a sensor module (176), an interface (177), a connection terminal (178), a haptic module (179), a camera module (180), a power management module (188), a battery (189), a communication module (190), a subscriber identification module (196), or an antenna module (197).
  • the electronic device (101) may omit at least one of these components (e.g., the connection terminal (178)), or may include one or more other components.
  • some of these components e.g., the sensor module (176), the camera module (180), or the antenna module (197) may be integrated into one component (e.g., the display module (160)).
  • the processor (120) may control at least one other component (e.g., a hardware or software component) of the electronic device (101) connected to the processor (120) by executing, for example, software (e.g., a program (140)), and may perform various data processing or calculations.
  • the processor (120) may store a command or data received from another component (e.g., a sensor module (176) or a communication module (190)) in a volatile memory (132), process the command or data stored in the volatile memory (132), and store result data in a non-volatile memory (134).
  • the processor (120) may include a main processor (121) (e.g., a central processing unit or an application processor) or an auxiliary processor (123) (e.g., a graphic processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor) that can operate independently or together therewith.
  • a main processor (121) e.g., a central processing unit or an application processor
  • an auxiliary processor (123) e.g., a graphic processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor
  • the secondary processor (123) may be configured to use lower power than the main processor (121) or to be specialized for a given function.
  • the secondary processor (123) may be implemented separately from the main processor (121) or as a part thereof.
  • the auxiliary processor (123) may control at least a part of functions or states associated with at least one of the components of the electronic device (101) (e.g., the display module (160), the sensor module (176), or the communication module (190)), for example, while the main processor (121) is in an inactive (e.g., sleep) state, or together with the main processor (121) while the main processor (121) is in an active (e.g., application execution) state.
  • the auxiliary processor (123) e.g., an image signal processor or a communication processor
  • the auxiliary processor (123) may include a hardware structure specialized for processing an artificial intelligence model.
  • the artificial intelligence model may be generated through machine learning. Such learning may be performed, for example, in the electronic device (101) itself on which the artificial intelligence model is executed, or may be performed through a separate server (e.g., server (108)).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above.
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • the artificial neural network may be one of a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted Boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of the above, but is not limited to the examples described above.
  • the artificial intelligence model may additionally or alternatively include a software structure.
  • the memory (130) can store various data used by at least one component (e.g., processor (120) or sensor module (176)) of the electronic device (101).
  • the data can include, for example, software (e.g., program (140)) and input data or output data for commands related thereto.
  • the memory (130) can include volatile memory (132) or nonvolatile memory (134).
  • the program (140) may be stored as software in memory (130) and may include, for example, an operating system (142), middleware (144), or an application (146).
  • the input module (150) can receive commands or data to be used in a component of the electronic device (101) (e.g., a processor (120)) from an external source (e.g., a user) of the electronic device (101).
  • the input module (150) can include, for example, a microphone, a mouse, a keyboard, a key (e.g., a button), or a digital pen (e.g., a stylus pen).
  • the audio output module (155) can output an audio signal to the outside of the electronic device (101).
  • the audio output module (155) can include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive an incoming call. According to one embodiment, the receiver can be implemented separately from the speaker or as a part thereof.
  • the display module (160) can visually provide information to an external party (e.g., a user) of the electronic device (101).
  • the display module (160) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device.
  • the display module (160) can include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module (170) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (170) can obtain sound through an input module (150), or output sound through an audio output module (155), or an external electronic device (e.g., an electronic device (102)) (e.g., a speaker or a headphone) directly or wirelessly connected to the electronic device (101).
  • an electronic device e.g., an electronic device (102)
  • a speaker or a headphone directly or wirelessly connected to the electronic device (101).
  • the sensor module (176) can detect an operating state (e.g., power or temperature) of the electronic device (101) or an external environmental state (e.g., user state) and generate an electric signal or data value corresponding to the detected state.
  • the sensor module (176) can include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface (177) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (101) with an external electronic device (e.g., the electronic device (102)).
  • the interface (177) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal (178) may include a connector through which the electronic device (101) may be physically connected to an external electronic device (e.g., the electronic device (102)).
  • the connection terminal (178) may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).
  • the haptic module (179) can convert an electrical signal into a mechanical stimulus (e.g., vibration or movement) or an electrical stimulus that a user can perceive through a tactile or kinesthetic sense.
  • the haptic module (179) can include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module (180) can capture still images and moving images.
  • the camera module (180) can include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module (188) can manage power supplied to the electronic device (101).
  • the power management module (188) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery (189) can power at least one component of the electronic device (101).
  • the battery (189) can include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • the communication module (190) may support establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (101) and an external electronic device (e.g., the electronic device (102), the electronic device (104), or the server (108)), and performance of communication through the established communication channel.
  • the communication module (190) may operate independently from the processor (120) (e.g., the application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • the communication module (190) may include a wireless communication module (192) (e.g., a cellular communication module, a short-range wireless communication module, or a GNSS (global navigation satellite system) communication module) or a wired communication module (194) (e.g., a local area network (LAN) communication module, or a power line communication module).
  • a wireless communication module (192) e.g., a cellular communication module, a short-range wireless communication module, or a GNSS (global navigation satellite system) communication module
  • a wired communication module (194) e.g., a local area network (LAN) communication module, or a power line communication module.
  • a corresponding communication module may communicate with an external electronic device (104) via a first network (198) (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network (199) (e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)).
  • a first network (198) e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network (199) e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)
  • a computer network e.g.,
  • the wireless communication module (192) may use subscriber information (e.g., international mobile subscriber identity (IMSI)) stored in the subscriber identification module (196) to identify or authenticate the electronic device (101) within a communication network such as the first network (198) or the second network (199).
  • subscriber information e.g., international mobile subscriber identity (IMSI)
  • IMSI international mobile subscriber identity
  • the wireless communication module (192) can support a 5G network and next-generation communication technology after a 4G network, for example, NR access technology (new radio access technology).
  • the NR access technology can support high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), terminal power minimization and connection of multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency communications
  • the wireless communication module (192) can support, for example, a high-frequency band (e.g., mmWave band) to achieve a high data transmission rate.
  • a high-frequency band e.g., mmWave band
  • the wireless communication module (192) may support various technologies for securing performance in a high-frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), full dimensional MIMO (FD-MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module (192) may support various requirements specified in an electronic device (101), an external electronic device (e.g., an electronic device (104)), or a network system (e.g., a second network (199)).
  • the wireless communication module (192) may support a peak data rate (e.g., 20 Gbps or more) for eMBB realization, a loss coverage (e.g., 164 dB or less) for mMTC realization, or a U-plane latency (e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip) for URLLC realization.
  • a peak data rate e.g., 20 Gbps or more
  • a loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip
  • the antenna module (197) can transmit or receive signals or power to or from the outside (e.g., an external electronic device).
  • the antenna module (197) may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (e.g., a PCB).
  • the antenna module (197) may include a plurality of antennas (e.g., an array antenna).
  • at least one antenna suitable for a communication method used in a communication network, such as the first network (198) or the second network (199) may be selected from the plurality of antennas by, for example, the communication module (190).
  • a signal or power may be transmitted or received between the communication module (190) and the external electronic device through the selected at least one antenna.
  • another component e.g., a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module (197) can form a mmWave antenna module.
  • the mmWave antenna module can include a printed circuit board, an RFIC positioned on or adjacent a first side (e.g., a bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., a mmWave band), and a plurality of antennas (e.g., an array antenna) positioned on or adjacent a second side (e.g., a top side or a side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band.
  • a first side e.g., a bottom side
  • a plurality of antennas e.g., an array antenna
  • peripheral devices e.g., a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • a command or data may be transmitted or received between the electronic device (101) and an external electronic device (104) via a server (108) connected to a second network (199).
  • Each of the external electronic devices (102 or 104) may be the same or a different type of device as the electronic device (101).
  • all or part of the operations executed in the electronic device (101) may be executed in one or more of the external electronic devices (102, 104, or 108). For example, when the electronic device (101) is to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device (101) may, instead of executing the function or service by itself or in addition, request one or more external electronic devices to perform at least a part of the function or service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device (101).
  • the electronic device (101) may provide the result, as is or additionally processed, as at least a part of a response to the request.
  • cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used, for example.
  • the electronic device (101) may provide an ultra-low latency service by using distributed computing or mobile edge computing, for example.
  • the external electronic device (104) may include an IoT (Internet of Things) device.
  • the server (108) may be an intelligent server using machine learning and/or a neural network.
  • the external electronic device (104) or the server (108) may be included in the second network (199).
  • the electronic device (101) can be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • An electronic device may have a structure of a wearable electronic device.
  • the electronic device (101) is a wearable electronic device in the form of a watch, and the electronic device (101) according to an embodiment may be worn by a user.
  • the electronic device (101) may be a smart watch that may be worn on a user's wrist.
  • FIG. 2 is a drawing showing an electronic device (201) and a pen device (205) according to one embodiment.
  • an electronic device (201) may include a display (e.g., a touchscreen display) (260).
  • the display (260) may include a touch sensor circuit (e.g., a touch sensing panel and a touch sensor IC) and a pen input circuit (e.g., a pen sensing panel and a pen recognition IC).
  • the electronic device (201) may independently identify a touch input and a pen input on a screen of the display (260).
  • the electronic device (201) can identify a scan area and a scan exclusion area among the entire area of the screen of the display (260) and cause the touch sensor circuit to perform a scan for the scan area and not perform a scan for the scan exclusion area.
  • FIG. 3 is a block diagram of an electronic device according to one embodiment.
  • an electronic device (201) according to an embodiment may include a display (260) (e.g., the display module (160) of FIG. 1), a processor (220), and a memory (230).
  • the electronic device (201) according to an embodiment is not limited thereto and may be configured to further include various components or to exclude some of the components.
  • the electronic device (201) according to an embodiment may further include all or part of the electronic device (101) illustrated in FIG. 1.
  • a display (260) may include a screen window (not shown), a touch panel (or a capacitive touch panel) (312), a display panel (or a display panel) (not shown), a pen recognition panel (or a digitizer pad) (322), a touch sensor IC (314), and a pen recognition IC (324).
  • a display (260) according to an embodiment may further include a driving circuit (not shown) that controls the display panel to output an image through the display panel.
  • a screen window (or cover window) may provide a contact surface capable of receiving an external input, for example, a touch or hovering input by an external pen device (205), or a touch input of a conductor (e.g., a palm).
  • the screen window may be glass treated with a reinforced coating or an oleophobic coating, and may also be formed using at least one of alumina, silica, and sapphire materials.
  • the screen window according to an embodiment may be made of a transparent material and may be attached to a touch panel (312) using an adhesive or may be fixed to a body forming an exterior of the electronic device (201).
  • a touch panel (312) may include electrode lines including a plurality of electrodes (e.g., TX (transmit) electrodes and RX (receive) electrodes) (not shown) that are alternately formed in parallel, and may receive voltage from a touch sensor IC (314) to form an electric field for touch detection through the plurality of electrodes.
  • a touch panel (312) may cause a change in electrostatic capacity due to a touch (or pressure) of a conductor (e.g., a palm).
  • a touch sensing IC (314) can control to supply voltage to electrode lines of a touch panel (312) and scan the receiving electrodes of the touch panel (312) to obtain a charge amount that varies depending on a contact (e.g., touch) of a pen device (205) or a conductor (e.g., a palm).
  • a touch sensing IC (314) can supply voltage to all electrode lines of the touch panel (312) and scan all receiving electrodes of the touch panel (312) during a full scan.
  • a touch sensing IC (314) can supply voltage to some electrode lines of some areas (scan areas) among all electrode lines of the touch panel (312) during a partial scan and not supply voltage to other electrode lines of other areas (scan exclusion areas) excluding the some areas, and can perform a scan only for receiving electrodes of some areas (scan areas) of the touch panel (312).
  • a touch sensing IC (314) may provide location information (e.g., coordinates (x, y)) of a detected pen device (205) or conductor (e.g., palm) to a processor (220) based on the amount of charge acquired through a full scan or partial scan of receiving electrodes.
  • the pen recognition panel (322) may include an FPCB (flexible printed circuit board) including a plurality of loop antenna coils that are overlapped in the direction of the x-axis and y-axis arrangement of the display screen.
  • the pen recognition IC (324) may control the generation of an electromagnetic field by providing an alternating current to the pen recognition panel (322).
  • the electromagnetic field generated by the pen recognition panel (322) may affect a resonance circuit (not shown) of the pen device (205) when the pen device (205) contacts (e.g., touches) or approaches the electromagnetic field by the pen recognition panel (322).
  • a current may be generated in the resonance circuit of the pen device (205) by the electromagnetic field by the pen recognition panel (322), and a magnetic field may also be formed in the resonance circuit of the pen device (205) by the current generated in the resonance circuit of the pen device (205).
  • a pen recognition IC may detect the position of the pen device (205) by scanning the intensity of a magnetic field applied from the pen device (205) to the pen recognition panel (322) for a partial area or the entire area of the display screen and provide detected position information (e.g., coordinates (x, y)) to the processor (220).
  • a display panel (not shown) according to one embodiment can display a display screen.
  • a display panel (not shown) according to one embodiment can display a display screen generated using pen input information generated using data information to be displayed on the display (260) and coordinate information of the pen device (205).
  • a touch sensor panel (312) and a touch sensor IC (314) may be implemented as a touch sensor circuit (310) that is connected to each other, and according to one embodiment, a pen recognition panel (322) and a pen recognition IC (324) may be implemented as a pen recognition circuit (320) that is connected to each other.
  • a processor (220) (e.g., the processor (120) of FIG. 1) (or a host) according to an embodiment can perform overall control operations of the electronic device (201).
  • the processor (220) can identify a position (e.g., a first palm position) of a conductive object (or a palm) on the display (260) through a touch sensor circuit (310).
  • the processor (220) according to an embodiment can identify a position (e.g., a first palm position) of a conductive object (or a palm) based on position information (e.g., coordinates (x, y)) provided from a touch sensor IC (314) or of a conductor (e.g., a palm).
  • the processor (220) can identify a hover-in state (e.g., an approach state) by a pen device (205) through a pen input circuit (320).
  • a processor (220) may identify a hover-in state (e.g., an approach state) by the pen device (205) and a position of the pen device (205) based on position information (e.g., coordinates (x, y)) of the pen device (205) provided from a pen recognition IC (324).
  • a processor (220) may identify a position (e.g., a first position) of the pen device (205), tilt information (e.g., first tilt information) of the pen device (205), and a screen state (e.g., a first screen state) of the display (260) based on identification of the first palm position and the hover-in state.
  • a position e.g., a first position
  • tilt information e.g., first tilt information
  • a screen state e.g., a first screen state
  • the screen state of the display may include a horizontal state or a vertical state.
  • the processor (220) may display the display (260) screen in a horizontal state or a vertical state depending on the rotation state of the electronic device (201). If the display screen state is a horizontal state, the processor (220) according to one embodiment may identify the leftward or rightward direction of the first position of the pen device (205) based on the x-axis of the display screen. If the display screen state is a vertical state, the processor (220) according to one embodiment may identify the leftward or rightward direction of the pen device based on the y-axis of the display screen.
  • the horizontal state and the vertical state according to one embodiment may be horizontal or vertical depending on the definition of the horizontal and vertical of the display screen.
  • the tilt information of the pen device (205) may include an angle between a reference axis (hereinafter, also referred to as a longitudinal axis) of the pen device (205) and a z-axis (or vertical axis) of the display screen (xy plane).
  • the processor (220) may obtain tilt information (e.g., first tilt information) based on the angle between the reference axis of the pen device (205) and the z-axis of the display screen (xy plane) at a first position of the display screen.
  • the first tilt information may be obtained by various methods, and in the present disclosure, it may be obtained based on the descriptions of FIGS. 7A, 7B, and 7C described below.
  • the pen device (205) may be in a state of hovering in (or contacting) the display screen vertically.
  • the pen device (205) may be in a state of hovering in (or contacting) the display screen by tilting to the right with respect to the vertical direction (z direction) of the display screen.
  • a first specified angular range e.g., between about 0 degrees and about -90 (or about +90) degrees
  • the processor (220) may identify a right-hand mode in which writing is performed by a right hand when the pen device (205) is tilted to the right with respect to the vertical direction (e.g., z-axis) of the display screen and hovered in (or in contact with) the pen device.
  • the vertical direction e.g., z-axis
  • the pen device (205) may be tilted to the left with respect to the vertical direction (e.g., z-axis) of the display screen and hovered in (or in contact with) the pen device.
  • a second specified angular range e.g., between about 0 degrees and +90 degrees (or -90 degrees)
  • the pen device (205) may be tilted to the left with respect to the vertical direction (e.g., z-axis) of the display screen and hovered in (or in contact with) the pen device.
  • the processor (220) may identify a left-hand mode in which writing is performed by a left hand when the pen device (205) is tilted to the left with respect to the vertical direction (e.g., z-axis) of the display screen and hovered in (or in contact with) the pen device.
  • the vertical direction e.g., z-axis
  • a processor (220) can identify a first scan area where scanning is to be performed by the touch sensing circuit (310) and a first scan exclusion area where scanning is not to be performed by the touch sensing circuit (310) based on a first palm position, a first position of the pen device (205), first tilt information of the pen device (205), and a first screen state.
  • the processor (220) identifies an area corresponding to the left side of the first position of the pen device (205) based on the x-axis of the display screen as a first scan area and identifies an area that is not the first scan area as a first scan exclusion area when the pen device (205) is in the first position and the screen state of the pen device (205) is in a horizontal state and the first tilt information of the pen device (205) indicates a state that is tilted to the right.
  • the processor (220) identifies an area corresponding to the right side of the first position of the pen device (205) based on the x-axis of the display screen as a first scan area and identifies an area that is not the first scan area as a first scan exclusion area when the pen device (205) is in the first position and the screen state of the pen device (205) is in a horizontal state and the first tilt information of the pen device (205) indicates a state that is tilted to the left.
  • the processor (220) may identify an area corresponding to the left side of the first position of the pen device (205) based on the y-axis of the display screen as the first scan area, and may identify an area that is not the first scan area as the first scan exclusion area.
  • the processor (220) may identify an area corresponding to the right side of the first position of the pen device (205) based on the y-axis of the display screen as the first area, and may identify an area that is not the first scan area as the first scan exclusion area.
  • the processor (220) may control the touch sensing circuit (310) to perform a first partial scan to perform a scan for the first scan area and not to perform a scan for the first scan exclusion area based on the identification of the first scan area and the first scan exclusion area.
  • the touch sensing circuit (310) may provide a specified power (or voltage or current) to electrodes corresponding to the first scan area among the electrodes of the touch sensor panel (312) and may not provide the specified power (or voltage or current) to electrodes corresponding to the first scan exclusion area.
  • the processor (220) can identify that the pen device (205) moves from a first position to a second position. Based on the identification of the movement of the pen device (205) from the first position to the second position, the processor (220) in one embodiment can identify a second palm position, a second position of the pen device (205), second tilt information of the pen device (205), and a second screen state of the display (260). Based on the second palm position, the second position of the pen device (205), second tilt information of the pen device (205), and the second screen state, the processor (220) in one embodiment can identify a second scan area in which scanning will be performed by the touch sensing circuit (310) and a second scan exclusion area in which scanning will not be performed by the pen input circuit (320).
  • the processor (220) may control the touch sensing circuit (310) to perform a second partial scan to perform a scan for the second scan area and not perform a scan for the second scan exclusion area based on the identification of the second scan area and the second scan exclusion area.
  • the processor (220) may control the touch sensing circuit (310) to perform a full scan based on identification of the hover out state of the pen device (205).
  • a memory (230) may store various data used by at least one component (e.g., processor (220) or display (260)) of an electronic device (201).
  • a memory (230) may store indicators representing each of a plurality of areas within the display screen.
  • a memory (230) may store instructions set to cause the processor (220) to perform a scan operation for touch sensing of the display.
  • An electronic device may include a display (e.g., the display (160) of FIG. 1 or the display (260) of FIG. 2) including a touch sensor circuit (e.g., the touch sensor circuit (310) of FIG. 3) and a pen input circuit (e.g., the touch sensor circuit (320) of FIG. 3)), a memory (e.g., the memory (130) of FIG. 1 or the memory (230) of FIG. 2) storing instructions), and a processor (e.g., the processor (120) of FIG. 1 or the processor (220) of FIG. 2)).
  • a display e.g., the display (160) of FIG. 1 or the display (260) of FIG. 2
  • a touch sensor circuit e.g., the touch sensor circuit (310) of FIG. 3
  • a pen input circuit e.g., the touch sensor circuit (320) of FIG. 3
  • a memory e.g., the memory (130) of FIG. 1 or the memory (230) of FIG. 2) storing instructions
  • the instructions according to an embodiment when executed by the processor, may cause the electronic device to identify a first palm position on the display through the touch sensor circuit and to identify a hover-in state by a pen device through the pen input circuit.
  • the instructions according to one embodiment when executed by the processor, may cause the electronic device to control the touch sensor circuit to perform a full scan based on identification of a hover out state of the pen device.
  • the first scan exclusion area and the second scan exclusion area may be different areas.
  • the first display screen state may be a horizontal state or a vertical state.
  • the tilt information may include an angle between a reference axis of the pen device and a z-axis of a screen of the display.
  • the memory may store indicators representing each of a plurality of areas within the display screen.
  • the instructions according to one embodiment when executed by the processor, may cause the electronic device to transmit a first indicator corresponding to the first scan exclusion area among the area indicators to the touch sensor circuit.
  • FIG. 4 is a diagram illustrating full scan and partial scan operation procedures in an electronic device according to one embodiment.
  • an electronic device (201) may detect a contact (e.g., a touch) of a conductor (e.g., a palm) by performing a full scan on the receiving electrodes of the touch panel (312).
  • a contact e.g., a touch
  • a conductor e.g., a palm
  • the touch sensor circuit (310) may transmit location information (e.g., coordinates (x, y) or coordinates) (e.g., first palm location information) of the conductor (e.g., the palm) to the processor (220) (1. Detect the palm (full-scanning).
  • location information e.g., coordinates (x, y) or coordinates
  • first palm location information e.g., first palm location information
  • a pen recognition circuit (320) may identify a hover-in state of the pen device (205) by scanning the intensity of a magnetic field applied from the pen device (205) to the pen recognition panel (322).
  • a pen recognition circuit (320) may detect a position of the pen device (205) based on the identification of the hover-in state of the pen device (205) and provide the detected position (e.g., coordinates (x, y)) (e.g., first position) of the pen device (205) to the processor (220) (2. Pen hover in).
  • a processor (220) may calculate (or identify) an area in which scanning will be performed by the touch sensing circuit (310) among the entire scan area and a scan exclusion area in which scanning will not be performed based on receiving the first palm position from the touch sensor circuit (310) and the position information (e.g., the first position) of the pen device (205) from the pen recognition circuit (320) (3. Calculate an area to be excluded).
  • the processor (220) may identify a first palm position and a first position of the pen device (205), first tilt information of the pen device (205), and a first screen state of the display (260) based on the reception of palm position information from the touch sensor circuit (310) and the reception of position information of the pen device (205) from the pen recognition circuit (320), and may identify a scan area where scanning will be performed by the touch sensing circuit (310) and a scan exclusion area where scanning will not be performed by the touch sensing circuit (310) based on the first palm position, the first position of the pen device (205), the first tilt information of the pen device (205), and the first screen state.
  • a processor (220) may transmit a command to a touch sensor circuit (310) to change the scan mode from a full scan mode to a partial scan mode.
  • a processor (220) according to an embodiment of the present invention may transmit a command to change the scan mode to a partial scan mode and an area indicator corresponding to a scan exclusion area to the touch sensor circuit (310) using a USB HID (human interface device) class (4. Send HID command for charging scan mode).
  • a USB HID human interface device
  • a touch sensor circuit (310) may change the scan mode from a full scan mode to a partial scan mode based on a command received from a processor (220) and perform a partial scan on a scan area excluding a scan exclusion area among the entire scan area (5. Change the scan mode).
  • a pen recognition circuit (320) can identify a hover out state of the pen device (205) by scanning the intensity of a magnetic field applied from the pen device (205) to the pen recognition panel (322).
  • a pen recognition circuit (320) can provide the hover out state of the pen device (205) to the processor (220) (6. Pen hover out).
  • the processor (220) may transmit a command to the touch sensor circuit (310) to change the scan mode from the partial scan mode to the full scan mode based on the identification of the hover out state of the pen device (205). In one embodiment, the processor (220) may transmit a command to the touch sensor circuit (310) to change the scan mode from the partial scan mode to the full scan mode using a USB HID (human interface device) class (7. Send HID command for charging scan mode).
  • a USB HID human interface device
  • the touch sensor circuit (310) can change the scan mode from a partial scan mode to a full scan mode and perform a full scan on the entire scan area based on a command received from the processor (220) (8. Change the scan mode).
  • FIG. 5 is a flowchart illustrating a scan operation for touch sensing of a display in an electronic device according to one embodiment.
  • an electronic device e.g., an electronic device (101) of FIG. 1 or an electronic device (201) of FIG. 2) (or a processor (120) of FIG. 1 or a processor (220) of FIG. 2) according to one embodiment may perform at least one of operations 510 to 540.
  • the processor (220) can identify a position (e.g., a first palm position) of a conductive object (or a palm) on the display (260) through the touch sensor circuit (310), and identify a hover-in state (e.g., an approach state) by the pen device (205) through the pen input circuit (320).
  • a position e.g., a first palm position
  • a hover-in state e.g., an approach state
  • the processor (220) may identify a position (e.g., a first position) of the pen device (205), tilt information (e.g., first tilt information) of the pen device (205), and a screen state (e.g., a first screen state) of the display (260) based on identification of the first palm position and the hover-in state.
  • a position e.g., a first position
  • tilt information e.g., first tilt information
  • a screen state e.g., a first screen state
  • the screen state of the display may include a horizontal state or a vertical state.
  • the processor (220) may display the display (260) screen in a horizontal state or a vertical state depending on the rotation state of the electronic device (202). If the display screen state is a horizontal state, the processor (220) according to one embodiment may identify the leftward or rightward direction of the first position of the pen device (205) based on the x-axis of the display screen. If the display screen state is a vertical state, the processor (220) according to one embodiment may identify the leftward or rightward direction of the pen device based on the y-axis of the display screen.
  • the horizontal state and the vertical state according to one embodiment may be horizontal or vertical depending on the definition of the horizontal and vertical of the display screen.
  • the tilt information of the pen device (205) may include an angle between the reference axis of the pen device (205) and the z-axis of the display screen (xy plane).
  • the processor (220) may obtain the tilt information (e.g., first tilt information) based on the angle between the reference axis of the pen device (205) and the z-axis of the display screen (xy plane) at a first position of the display screen.
  • the method of obtaining the first tilt information may be calculated by various methods, and in the present disclosure, it may be calculated based on the descriptions of FIGS. 7A, 7B, and 7C described below.
  • the pen device (205) may be in a state of hovering in (or contacting) the display screen vertically.
  • the pen device (205) may be in a state of hovering in (or contacting) the display screen by tilting to the right with respect to the vertical direction (z-direction) of the display screen.
  • the processor (220) may identify a right-hand mode in which writing is done by a right hand when the pen device (205) is in a state of hovering in (or contacting) the display screen by tilting to the right with respect to the vertical direction (e.g., z-axis) of the display screen.
  • the angle between the reference axis of the pen device (205) and the z-axis (or vertical axis) of the display screen (xy plane) at the first position of the display screen is between about 0 degrees and +90 degrees (or -90 degrees)
  • the pen device (205) may be in a hover-in (or contact) state by tilting to the left with respect to the vertical direction (e.g., z-axis) of the display screen.
  • the processor (220) may identify a left-hand mode in which writing is done by the left hand when the pen device (205) is in a hover-in (or contact) state by tilting to the left with respect to the vertical direction (e.g., z-axis) of the display screen.
  • the processor (220) can identify a first scan area where scanning is to be performed by the touch sensing circuit (310) and a first scan exclusion area where scanning is not to be performed by the touch sensing circuit (310) based on the first palm position, the first position of the pen device (205), the first tilt information of the pen device (205), and the first screen state.
  • the processor (220) identifies an area corresponding to the left side of the first position of the pen device (205) based on the x-axis of the display screen as a first scan area and identifies an area that is not the first scan area as a first scan exclusion area when the pen device (205) is in the first position and the screen state of the pen device (205) is in a horizontal state and the first tilt information of the pen device (205) indicates a state that is tilted to the right.
  • the processor (220) identifies an area corresponding to the right side of the first position of the pen device (205) based on the x-axis of the display screen as a first scan area and identifies an area that is not the first scan area as a first scan exclusion area when the pen device (205) is in the first position and the screen state of the pen device (205) is in a horizontal state and the first tilt information of the pen device (205) indicates a state that is tilted to the left.
  • the processor (220) may identify an area corresponding to the left side of the first position of the pen device (205) based on the y-axis of the display screen as the first scan area, and may identify an area that is not the first scan area as the first scan exclusion area.
  • the processor (220) may identify an area corresponding to the right side of the first position of the pen device (205) based on the y-axis of the display screen as the first area, and may identify an area that is not the first scan area as the first scan exclusion area.
  • the processor (220) can control the touch sensing circuit (310) to perform a first partial scan to perform a scan for the first scan area and not to perform a scan for the first scan exclusion area based on the identification of the first scan area and the first scan exclusion area.
  • the processor (220) may identify that the pen device (205) moves from a first position to a second position during a first partial scan. Based on the identification of the movement of the pen device (205) from the first position to the second position, the processor (220) according to an embodiment may identify a second palm position, a second position of the pen device (205), second tilt information of the pen device (205), and a second screen state of the display (260).
  • the processor (220) may identify a second scan area in which scanning will be performed by the touch sensing circuit (310) and a second scan exclusion area in which scanning will not be performed by the pen input circuit (320). According to one embodiment, the processor (220) may control the touch sensing circuit (310) to perform a second partial scan to perform a scan for the second scan area and not to perform a scan for the second scan exclusion area based on the identification of the second scan area and the second scan exclusion area. According to one embodiment, the processor (220) may control the touch sensing circuit (310) to perform a full scan based on the identification of the hover out state of the pen device (205).
  • a scan method for touch sensing of a display in an electronic device may include an operation of identifying a first palm position on the display through a touch sensor circuit and identifying a hover-in state by a pen device through a pen input circuit.
  • the method may include an operation of identifying a first position of the pen device, first tilt information of the pen device, and a first screen state of the display based on the identification of the first palm position and the hover-in state.
  • the method according to an embodiment may include an operation of identifying a first scan area and a first scan exclusion area among scan areas by the touch sensor circuit based on the first palm position, the first position of the pen device, the first tilt information, and the first screen state.
  • the method according to an embodiment may include an operation of performing a scan on the first scan area through the touch sensor circuit and performing a first partial scan that does not perform a scan on the first scan exclusion area.
  • the method according to one embodiment may further include an operation in which the touch sensor circuit performs a full scan of the scan area based on identification of a hover out state of the pen device.
  • the method may include an operation of identifying a second hand position, the second position of the pen device, second tilt information of the pen device, and a second screen state of the display based on identification of movement of the pen device from the first position to the second position on the display.
  • the method may include an operation of identifying a second scan area and a second scan exclusion area among scan areas to be scanned by the touch sensor circuit based on the second palm position, the second position of the pen device, the second tilt information, and the second screen state.
  • the method may include an operation of performing a scan on the second scan area and performing a second partial scan that does not perform a scan on the second scan exclusion area through the touch sensor circuit.
  • the first scan exclusion area and the second scan exclusion area may be different areas.
  • the method according to one embodiment may include an operation of identifying whether the display screen state is in a landscape or portrait state.
  • the method according to one embodiment may include an operation of identifying the leftward or rightward direction of the pen device based on the x-axis of the display screen when the display screen state is the horizontal state.
  • the method according to one embodiment may include an operation of identifying the leftward or rightward direction of the pen device based on the y-axis of the display screen when the screen state of the display is the vertical state.
  • the tilt information may include an angle between a reference axis of the pen device and a vertical axis of a screen of the display.
  • the method according to one embodiment may include an operation of identifying the first scan exclusion area based on the leftward direction of the pen device when the angle is within a first specified angular range.
  • the method according to one embodiment may include an operation of identifying the first scan exclusion area based on the rightward direction of the pen device when the angle is within a second specified angular range.
  • the method according to one embodiment may include an operation of transmitting a first indicator corresponding to the first scan exclusion area among indicators representing each of a plurality of areas within the display screen stored in the memory to the touch sensor circuit.
  • FIG. 6 is a drawing showing the position of the palm and the position of the pen device on the display screen of the electronic device according to one embodiment.
  • a processor (processor (120) of FIG. 1 or processor (220) of FIG. 2) of an electronic device e.g., electronic device (101) of FIG. 1 or electronic device (201) of FIG. 2) according to an embodiment of the present invention may represent a position on a display (661) using x, y coordinates in a state where the horizontal axis of the display (661) (or display screen or entire scan area) is set as the x-axis and the vertical axis is set as the y-axis.
  • a processor (220) can identify a first scan area in which scanning will be performed by the touch sensor circuit (310) and a first scan exclusion area in which scanning will not be performed by the touch sensor circuit (310) among the entire scan area (661) based on a first palm position (614) and a position (e.g., first position) (612) of the pen device (205).
  • the processor (220) may identify (or determine) the first scan exclusion area where scanning will not be performed by the touch sensor circuit (310) as the area to the right of the first position (612) of the pen device (205), assuming that the user is likely to be left-handed.
  • a leftward tilt angle e.g., a second specified angle range (e.g., between about 0 degrees and +90 degrees (or -90)
  • the processor (220) may identify (or determine) the first scan exclusion area where scanning will not be performed by the touch sensor circuit (310) as the area to the right of the first position (612) of the pen device (205), assuming that the user is likely to be left-handed.
  • the processor (220) may identify (or determine) a first scan exclusion area where scanning will not be performed by the touch sensor circuit (310) as a left area of the first position (612) of the pen device (205) if the first palm position (614) is located to the right of the first position of the pen device (205) and the tilt information of the pen device (205) includes a rightward tilt angle (e.g., a first specified angle range (e.g., between about 0 degrees and about -90 (or about +90) degrees)) (not shown), thus indicating a high possibility of right-handedness.
  • a rightward tilt angle e.g., a first specified angle range (e.g., between about 0 degrees and about -90 (or about +90) degrees
  • FIG. 7a is a drawing for explaining tilt information of a pen device in an electronic device according to one embodiment.
  • the tilt information of the pen device may include an angle (T) between the reference axis (or the horizontal axis of the pen device (205)) (a) of the pen device (205) and the z-axis (or vertical axis) of the display (661) (xy plane).
  • the tilt information of the pen device (205) may have a second specified angle range (e.g., between about 0 degrees and +90 degrees (or -90)) when the pen device (205) is tilted to the left with respect to the z-axis, and may have a first specified angle range (e.g., between about 0 degrees and about -90 (or about +90)) when the pen device (205) is tilted to the right with respect to the z-axis.
  • a second specified angle range e.g., between about 0 degrees and +90 degrees (or -90)
  • first specified angle range e.g., between about 0 degrees and about -90 (or about +90)
  • FIG. 7b is a diagram illustrating a case where a pen device is vertically approached to an electronic device according to one embodiment.
  • a magnetic field may be formed under the display (661) (or the pen sensing panel (322)) according to an embodiment, and when the pen device (205) approaches the magnetic field, an electromagnetic wave (750) may be formed between the display (661) and the pen device (205) by the coil (710) inside the pen device (205).
  • the intensity (or density) of the electromagnetic wave (750) may be the highest at a point where the distance between the pen device (205) and the display (661) is the closest, and the intensity (or density) of the formed electromagnetic wave (750) may be lower as the distance between the pen device (205) and the display (661) increases.
  • a processor (processor (120) of FIG. 1 or processor (220) of FIG. 2) of an electronic device can detect an electromagnetic wave (750) formed by a pen device (205) through a pen sensing panel (322) and identify an intensity distribution (or a shape of the detected electromagnetic wave) (755) of the detected electromagnetic wave (750).
  • the processor (220) can identify a state in which the pen device (205) is vertically approaching (e.g., a state in which tilt information is approximately 0) when the intensity distribution (755) of the identified electromagnetic wave represents a concentric circle.
  • FIG. 7c is a drawing showing a case where the pen device is approached while tilted to the left in an electronic device according to one embodiment.
  • a magnetic field may be formed under the display (661) (or the pen sensing panel (322)) according to an embodiment, and when the pen device (205) approaches the magnetic field, an electromagnetic wave (750) may be formed between the display (661) and the pen device (205) by the coil (710) inside the pen device (205).
  • the intensity (or density) of the electromagnetic wave (750) may be the highest at a point where the distance between the pen device (205) and the display (661) is the closest, and the intensity (or density) of the formed electromagnetic wave (750) may be lower as the distance between the pen device (205) and the display (661) increases.
  • a processor e.g., the electronic device (101) of FIG. 1 or the electronic device (201) of FIG. 2) of an electronic device may detect an electromagnetic wave (750) through a pen sensing panel (322) and identify an intensity distribution (or a shape of the detected electromagnetic wave) (757) of the detected electromagnetic wave.
  • the processor (220) may identify a state in which the pen device (205) is tilted to the left and approached (e.g., a state in which the tilt information is about +20 degrees, or within a second specified angle range (e.g., about 0 degrees to about +90 degrees)).
  • FIG. 8 is a drawing for explaining the horizontal and vertical states of a display according to one embodiment.
  • a processor (processor (120) of FIG. 1 or processor (220) of FIG. 2) of an electronic device e.g., electronic device (101) of FIG. 1 or electronic device (201) of FIG. 2) according to one embodiment may display a display screen (661) in a horizontal or vertical state depending on the rotation state of the electronic device (201).
  • the processor (220) can identify the left or right direction of the first position of the pen device (205) based on the x-axis of the display screen (661) when the display screen state is a horizontal state (810). According to an embodiment, the processor (220) can identify the left or right direction of the pen device (205) based on the y-axis of the display screen (661) when the display screen state is a vertical state (820).
  • the horizontal state and the vertical state according to an embodiment can be horizontal or vertical depending on the definition of the horizontal and vertical of the display screen.
  • FIG. 9A is a diagram showing a scan area and a scan exclusion area when a user writes with his or her right hand in a horizontal position on a display according to one embodiment.
  • a processor (the processor (120) of FIG. 1 or the processor (220) of FIG. 2) of an electronic device (e.g., the electronic device (101) of FIG. 1 or the electronic device (201) of FIG. 2) according to an embodiment of the present invention, when a first palm position (e.g., a palm position) (914) is identified, the pen device (205) is at a first position (912), and the screen state of the pen device (205) is in a horizontal state and the first tilt information of the pen device (205) indicates a state in which the pen device (205) is tilted to the right, may identify an area corresponding to the left side of the first position (912) of the pen device (205) with respect to the x-axis of the display screen (661) as a first scan area (920), and may identify an area that is not the first scan area (920) as a first scan exclusion area (910).
  • a first palm position e.g., a palm position
  • the pen device (205) is at a first position (912)
  • FIG. 9b is a diagram showing a scan area and a scan exclusion area when a user writes with his or her left hand in a horizontal position on a display according to one embodiment.
  • a processor (the processor (120) of FIG. 1 or the processor (220) of FIG. 2) of an electronic device (e.g., the electronic device (101) of FIG. 1 or the electronic device (201) of FIG. 2) according to an embodiment of the present invention, when the pen device (205) is at the first position (932) in a state where the first palm position (934) is identified, and the screen state of the pen device (205) is in a horizontal state and the first tilt information of the pen device (205) indicates a state in which the pen device (205) is tilted to the left, may identify an area corresponding to the right direction of the first position (932) of the pen device (205) with respect to the x-axis of the display screen (661) as a first scan area (940), and may identify an area other than the first scan area (940) as a first scan exclusion area (930).
  • FIG. 10A is a drawing showing a scan area and a scan exclusion area when a user writes with his or her right hand in a vertical position on a display according to one embodiment.
  • a processor (the processor (120) of FIG. 1 or the processor (220) of FIG. 2) of an electronic device (e.g., the electronic device (101) of FIG. 1 or the electronic device (201) of FIG. 2) according to an embodiment of the present invention, when the pen device (205) is at a first position (1011) in a state where a first palm position (1012) is identified, and the screen state of the pen device (205) is in a vertical state and the first tilt information of the pen device (205) indicates a state where it is tilted to the right, may identify an area corresponding to the left direction of the first position (1011) of the pen device (205) based on the y-axis of the display screen (661) as a first scan area (1020) and identify an area other than the first scan area (1020) as a first scan exclusion area (1010).
  • FIG. 10b is a drawing showing a scan area and a scan exclusion area when a user writes with his or her left hand in a vertical position on a display according to one embodiment.
  • a processor (the processor (120) of FIG. 1 or the processor (220) of FIG. 2) of an electronic device (e.g., the electronic device (101) of FIG. 1 or the electronic device (201) of FIG. 2) according to an embodiment of the present invention, when the pen device (205) is at the first position (1032) in a state where the first palm position (1034) is identified, and the screen state of the pen device (205) is in a vertical state and the first tilt information of the pen device (205) indicates a state where it is tilted to the left, may identify an area corresponding to the right direction of the first position (1032) of the pen device (205) based on the y-axis of the display screen (661) as a first scan area (1040) and identify an area as a first scan exclusion area (1030) that is not the first scan area (1040).
  • a processor e.g., the electronic device (101) of FIG. 1 or the electronic device (201) of FIG. 2) of an electronic device may divide a scan area and a scan exclusion area into various areas in addition to the areas described above.
  • the processor (220) may divide a display screen (661) into more than two areas and select (or identify) at least one or more of the more than two areas as scan exclusion areas excluding the scan area.
  • An electronic device may be a device of various forms.
  • the electronic device may include, for example, a portable communication device (e.g., a smartphone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device e.g., a smartphone
  • first, second, or first or second may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order).
  • a component e.g., a first
  • another component e.g., a second
  • functionally e.g., a third component
  • module used in one embodiment of this document may include a unit implemented in hardware, software or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example.
  • a module may be an integrally configured component or a minimum unit of the component or a part thereof that performs one or more functions.
  • a module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • An embodiment of the present document may be implemented as software (e.g., a program (140)) including one or more instructions stored in a storage medium (e.g., an internal memory (136) or an external memory (138)) readable by a machine (e.g., an electronic device (101) or an electronic device (301)).
  • a processor e.g., a processor (520)
  • the machine may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the at least one called instruction.
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the machine-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' simply means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.
  • the method according to one embodiment disclosed in the present document may be provided as included in a computer program product.
  • the computer program product may be traded between a seller and a buyer as a commodity.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g., a compact disc read only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play StoreTM) or directly between two user devices (e.g., smart phones).
  • an application store e.g., Play StoreTM
  • at least a part of the computer program product may be at least temporarily stored or temporarily generated in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or an intermediary server.
  • a non-transitory storage medium storing commands
  • the commands when executed by an electronic device, are set to cause the electronic device to perform at least one operation
  • the at least one operation may include: identifying a first palm position on the display through a touch sensor circuit and identifying a hover-in state by the pen device through the pen input circuit; identifying a first position of the pen device, first tilt information of the pen device, and a first screen state of the display based on the identification of the first palm position and the hover-in state; identifying a first scan area and a first scan exclusion area among scan areas by the pen input circuit based on the first palm position, the first position of the pen device, the first tilt information, and the first screen state; and performing a first partial scan of the first scan area and not performing a scan of the first scan exclusion area through the pen input circuit.
  • each of the components may include a single or multiple entities, and some of the multiple entities may be separated and arranged in other components.
  • one or more of the components or operations of the aforementioned components may be omitted, or one or more other components or operations may be added.
  • the multiple components e.g., modules or programs
  • the integrated component may perform one or more functions of each of the multiple components identically or similarly to those performed by the corresponding component of the multiple components before the integration.
  • the operations performed by the module, program or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일 실시 예에 따른 전자 장치는 터치 센서 회로 및 펜 입력 회로를 포함하는 디스플레이, 메모리, 및 프로세서를 포함하고, 상기 메모리는, 실행 시, 상기 프로세서가, 상기 터치 센서 회로를 통해 상기 디스플레이 상의 제1 팜 위치를 식별하고, 상기 펜 입력 회로를 통해 펜 장치에 의한 호버 인 상태를 식별하고, 상기 제1 팜 위치 및 상기 호버 인 상태의 식별에 기반하여 상기 펜 장치의 제1 위치, 상기 펜 장치의 제1 틸트 정보, 및 상기 디스플레이의 제1 화면 상태를 식별하고, 상기 제1 팜 위치, 상기 펜 장치의 제1 위치, 상기 제1 틸트 정보, 및 상기 제1 화면 상태에 기반하여 상기 터치 센서 회로에 의해 스캔이 수행될 제1 스캔 영역과 상기 터치 센서 회로에 의해 스캔이 수행되지 않을 제1 스캔 제외 영역을 식별하고, 상기 터치 센서 회로가 상기 제1 스캔 영역에 대한 스캔을 수행하고 상기 제1 스캔 제외 영역에 대한 스캔을 수행하지 않도록 하는 제1 부분 스캔을 수행하도록 제어하도록 설정된 인스트럭션들을 저장할 수 있으며, 이외 다른 실시 예를 포함할 수 있다.

Description

전자 장치 및 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 방법
본 개시의 다양한 실시 예들은 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔에 관한 것이다.
최근 전자 장치에서 사용자 인터페이스를 위해 터치 입력 장치(예: 터치스크린) 또는 펜 입력 장치(예: 디지타이저)와 같은 입력 장치가 탑재되어 널리 사용되고 있다.
터치스크린은 터치 감지에 의한 터치 입력 신호를 제공할 수 있으며, 터치 감지 방식은 예를 들면, 저항막 방식, 정전 방식, 적외선 방식, 초음파 방식, 및/또는 카메라 방식 등이 있다. 정전 방식은 스마트폰이나 타블릿 PC와 같은 휴대형 전자 장치에 널리 적용될 수 있다.
디지타이저는 전자 펜 또는 스타일러스 펜에 의한 펜 입력 신호를 제공할 수 있으며, 펜 인식 방식은 감압식, 정전식, 패시브(passive), 액티브(active), 및 전자기 공명 또는 유도(EMR: electromagnetic resonance) 방식이 있다.
전자 장치에서 터치 입력 동작과 펜 입력 동작은 독립적으로 수행될 수 있다. 전자 장치는 터치 감지를 위해 터치스크린의 전체 영역에 대한 스캔을 수행할 수 있고, 스캔 결과 터치(예: 손바닥에 의한 터치) 감지 시 펜 입력 장치에 의한 펜 입력 인식 동작을 수행할 수 있다.
전자 장치는 터치 감지에 의한 터치 입력 동작과 펜 인식에 의한 펜 입력 동작이 동시에 수행되는 경우 일부 터치 입력은 펜 입력을 위해 부수적으로 감지되는 불필요한 입력일 수 있다. 예를 들면, 전자 장치는 터치스크린에 손바닥을 대고 펜으로 필기 또는 드로잉하는 경우 전자 장치는 펜의 입력과 연관되지 않은 터치스크린의 일부 영역은 스캔이 필요하지 않음에도 불구하고 전체 영역의 스캔을 수행함으로써 불필요한 전력이 소모될 수 있다.
일 실시 예에 따르면 전자 장치에서 손바닥을 대고 펜으로 필기 또는 드로잉하는 경우 풀 스캔이 아니라 터치스크린의 전체 영역 중 스캔 영역과 스캔 제외 영역을 식별하고 스캔 영역에 대해서만 스캔을 수행하는 부분 스캔을 수행하여 전력 소모를 줄일 수 있는 전자 장치 및 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 방법을 제공할 수 있다.
일 실시 예에 따른 전자 장치는 터치 센서 회로 및 펜 입력 회로를 포함하는 디스플레이, 인스트럭션들을 저장하는 메모리, 및 프로세서를 포함할 수 있다. 일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 터치 센서 회로를 통해 상기 디스플레이 상의 제1 팜 위치를 식별하고, 상기 펜 입력 회로를 통해 펜 장치에 의한 호버 인 상태를 식별하도록 할 수 있다. 일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 제1 팜 위치 및 상기 호버 인 상태의 식별에 기반하여 상기 펜 장치의 제1 위치, 상기 펜 장치의 제1 틸트 정보, 및 상기 디스플레이의 제1 화면 상태를 식별하도록 할 수 있다. 일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 제1 팜 위치, 상기 펜 장치의 제1 위치, 상기 제1 틸트 정보, 및 상기 제1 화면 상태에 기반하여 상기 터치 센서 회로에 의해 스캔이 수행될 제1 스캔 영역과 상기 터치 센서 회로에 의해 스캔이 수행되지 않을 제1 스캔 제외 영역을 식별하도록 할 수 있다. 일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 터치 센서 회로가 상기 제1 스캔 영역에 대한 스캔을 수행하고 상기 제1 스캔 제외 영역에 대한 스캔을 수행하지 않도록 하는 제1 부분 스캔을 수행하도록 제어하도록 할 수 있다.
일 실시 예에 따른 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 방법은 터치 센서 회로를 통해 상기 디스플레이 상의 제1 팜 위치를 식별하고 상기 펜 입력 회로를 통해 펜 장치에 의한 호버 인 상태를 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 방법은 상기 제1 팜 위치 및 상기 호버 인 상태의 식별에 기반하여 상기 펜 장치의 제1 위치, 상기 펜 장치의 제1 틸트 정보, 및 상기 디스플레이의 제1 화면 상태를 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 방법은 상기 제1 팜 위치, 상기 펜 장치의 제1 위치, 상기 제1 틸트 정보, 및 상기 제1 화면 상태에 기반하여 상기 터치 센서 회로에 의한 스캔 영역 중 제1 스캔 영역과 제1 스캔 제외 영역을 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 방법은 상기 터치 센서 회로를 통해 상기 제1 스캔 영역에 대한 스캔을 수행하고 상기 제1 스캔 제외 영역에 대한 스캔을 수행하지 않는 제1 부분 스캔을 수행하는 동작을 포함할 수 있다.
일 실시 예에 따르면 명령들을 저장하고 있는 비일시적 저장 매체에 있어서, 상기 명령들은 전자 장치에 의하여 실행될 때에 상기 전자 장치로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 터치 센서 회로를 통해 상기 디스플레이 상의 제1 팜 위치를 식별하고 펜 입력 회로를 통해 펜 장치에 의한 호버 인 상태를 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 적어도 하나의 동작은 상기 제1 팜 위치 및 상기 호버 인 상태의 식별에 기반하여 상기 펜 장치의 제1 위치, 상기 펜 장치의 제1 틸트 정보, 및 상기 디스플레이의 제1 화면 상태를 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 적어도 하나의 동작은 상기 제1 팜 위치, 상기 펜 장치의 제1 위치, 상기 제1 틸트 정보, 및 상기 제1 화면 상태에 기반하여 상기 터치 센서 회로에 의한 스캔 영역 중 제1 스캔 영역과 제1 스캔 제외 영역을 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 적어도 하나의 동작은 상기 터치 센서 회로를 통해 상기 제1 스캔 영역에 대한 스캔을 수행하고 상기 제1 스캔 제외 영역에 대한 스캔을 수행하지 않는 제1 부분 스캔을 수행하는 동작을 포함할 수 있다.
본 개시의 실시 예들에 따르면 전자 장치에서 손바닥을 대고 펜으로 필기 또는 드로잉하는 경우 풀 스캔이 아니라 터치스크린의 전체 영역 중 스캔 영역과 스캔 제외 영역을 식별하고 스캔 영역에 대해서만 스캔을 수행하는 부분 스캔을 수행하여 전력 소모를 줄일 수 있다.
도 1은 일 실시 예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 일 실시 예에 따른 전자 장치와 펜 장치를 나타낸 도면이다.
도 3은 일 실시 예에 따른 전자 장치의 블록도이다.
도 4는 일 실시 예에 따른 전자 장치에서 풀 스캔 및 부분 스캔 동작 절차를 나타낸 도면이다.
도 5는 일 실시 예에 따른 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 동작을 도시한 흐름도이다.
도 6은 일 실시 예에 따른 전자 장치의 디스플레이 화면 상의 팜 위치와 펜 장치의 위치를 나타낸 도면이다.
도 7a는 일 실시 예에 따른 전자 장치에서 펜 장치의 틸트 정보를 설명하기 위한 도면이다.
도 7b는 일 실시 예에 따른 전자 장치에 펜 장치가 수직으로 접근된 경우를 나타낸 도면이다.
도 7c는 일 실시 예에 따른 전자 장치에서 펜 장치가 왼쪽으로 기울어져 접근된 경우를 나타낸 도면이다.
도 8은 일 실시 예에 따른 디스플레이의 가로 상태와 세로 상태를 설명하기 위한 도면이다.
도 9a는 일 실시 예에 따른 디스플레이가 가로 상태에서 사용자가 오른손으로 필기하는 경우의 스캔 영역과 스캔 제외 영역을 나타낸 도면이다.
도 9b는 일 실시 예에 따른 디스플레이가 가로 상태에서 사용자가 왼손으로 필기하는 경우의 스캔 영역과 스캔 제외 영역을 나타낸 도면이다.
도 10a는 일 실시 예에 따른 디스플레이가 세로 상태에서 사용자가 오른손으로 필기하는 경우의 스캔 영역과 스캔 제외 영역을 나타낸 도면이다.
도 10b는 일 실시 예에 따른 디스플레이가 세로 상태에서 사용자가 왼손으로 필기하는 경우의 스캔 영역과 스캔 제외 영역을 나타낸 도면이다.
이하, 첨부된 도면들을 참조하여 다양한 실시 예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예를 들어, 인공지능 전자 장치)를 지칭할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의된 용어들은 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미를 가지는 것으로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 발명의 실시 예들을 배제하도록 해석될 수 없다.
도 1은 일 실시 예에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시 예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
일 실시 예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시 예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시 예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시 예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101))는 웨어러블 전자 장치의 구조를 가질 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 시계 형태의 웨어러블 전자 장치로서, 일 실시 예에 따른 전자 장치(101)는 사용자에 의해 착용될 수 있다. 예를 들어, 전자 장치(101)는 사용자의 손목에 착용될 수 있는 스마트 시계(smart watch)일 수 있다.
도 2는 일 실시 예에 따른 전자 장치(201)와 펜 장치(205)를 나타낸 도면이다.
도 2를 참조하면, 일 실시 예에 따른 전자 장치(201)(예: 도 1의 전자 장치(101))는 디스플레이(예: 터치스크린 디스플레이)(260)를 포함할 수 있다. 일 실시 예에 따른 디스플레이(260)는 터치 센서 회로(예: 터치 센싱 패널 및 터치 센서 IC)와 펜 입력 회로(예: 펜 센싱 패널 및 펜 인식 IC)를 포함할 수 있다. 일 실시 예에 따른 전자 장치(201)는 디스플레이(260)의 화면 상의 터치 입력과 펜 입력을 독립적으로 식별할 수 있다. 일 실시 예에 따른 전자 장치(201)는 디스플레이(260)를 통해 터치 감지에 의한 터치 입력 동작과 펜 입력 인식 에 의한 펜 입력 동작이 동시에 수행되는 경우(예: 사용자가 디스플레이(260)에 손바닥을 대고 펜(205)으로 필기 또는 드로잉하는 경우) 디스플레이(260)의 화면의 전체 영역 중 스캔 영역과 스캔 제외 영역을 식별하고 터치 센서 회로가 스캔 영역에 대해서 스캔을 수행하고 스캔 제외 영역에 대해서 스캔을 수행하지 않도록 할 수 있다.
도 3은 일 실시 예에 따른 전자 장치의 블록도이다.
도 3을 참조하면, 일 실시 예에 따른 전자 장치(201)(예: 도 1의 전자 장치(101))는 디스플레이(260)(예: 도 1의 디스플레이 모듈(160)), 프로세서(220), 및 메모리(230)를 포함할 수 있다. 일 실시예에 따른 전자 장치(201)는 이에 한정되지 않고 다양한 구성 요소들을 더 포함하여 구성 또는 상기 구성들 중 일부를 제외하여 구성될 수 있다. 일 실시예에 따른 전자 장치(201)는 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 더 포함할 수 있다.
일 실시 예에 따른 디스플레이(260)는 스크린 윈도우(미도시), 터치 패널(또는 정전 용량 터치 패널)(312), 디스플레이 패널(또는 표시 패널)(미도시), 펜 인식 패널(또는 디지타이저 패드)(322), 터치 센서 IC(314), 및 펜 인식 IC(324)를 포함할 수 있다. 일 실시 예에 따른 디스플레이(260)는 디스플레이 패널을 통해 이미지를 출력하기 위해 디스플레이 패널을 제어하는 구동 회로(미도시)를 더 포함할 수 있다.
일 실시 예에 따른 스크린 윈도우(또는 커버 윈도우)는 외부의 입력, 예컨대 외부의 펜 장치(205)에 의한 터치 또는 호버링 입력, 전도체(예: 손바닥(팜))의 터치 입력이 가능한 접촉면을 제공할 수 있다. 예를 들어, 스크린 윈도우는 강화코팅 또는 올레포빅 코팅(oleophobic coating)으로 처리된 유리(glass)일 수 있고, 또한 알루미나(alumina), 실리카 (silica) 및 사파이어(sapphire) 재질 중 적어도 어느 하나를 이용하여 형성될 수 있다. 일 실시 예에 따른 스크린 윈도우는 투명한 재질로서 터치 패널(312)에 접착제를 사용하여 부착되거나 전자 장치(201)의 외관을 형성하는 몸체에 고정될 수 있다.
일 실시 예에 따른 터치 패널(312)은 다수의 전극들(예: TX(송신) 전극들 및 RX(수신) 전극들)(미도시)을 포함하는 전극 라인들이 번갈아 평행하게 형성되고, 터치 센서 IC(314)로부터 전압을 인가받아, 다수의 전극들을 통해 터치 감지를 위한 전기장을 형성시킬 수 있다. 일 실시 예에 따른 터치 패널(312)은 전도체(예: 손바닥(팜))의 터치(또는 압력)에 의한 정전 용량의 변화를 일으킬 수 있다.
일 실시 예에 따른 터치 센싱 IC(314)는 터치 패널(312)의 전극 라인들에 전압을 공급하도록 제어할 수 있으며 터치 패널(312)의 수신 전극들을 스캔하여 펜 장치(205) 또는 전도체(예: 손바닥(팜))의 접촉(예: 터치)에 따라 달라지는 전하량을 획득할 수 있다. 일 실시 예에 따른 터치 센싱 IC(314)는 풀 스캔 시 터치 패널(312)의 모든 전극 라인들에 전압을 공급하고 터치 패널(312)의 모든 수신 전극들을 스캔할 수 있다. 일 실시 예에 따른 터치 센싱 IC(314)는 부분 스캔 시 터치 패널(312)의 모든 전극 라인들 중 일부 영역(스캔 영역)의 일부 전극 라인들에 전압을 공급하고 일부 영역을 제외한 다른 영역(스캔 제외 영역)의 다른 전극 라인들에 전압을 공급하지 않을 수 있으며, 터치 패널(312)의 일부 영역(스캔 영역)의 수신 전극들에 대해서만 스캔을 수행할 수 있다. 일 실시 예에 따른 터치 센싱 IC(314)는 수신 전극들의 풀 스캔 또는 부분 스캔을 통해 획득한 전하량을 기반으로 감지된 펜 장치(205) 또는 전도체(예: 손바닥(팜))의 위치 정보(예: 좌표(x, y))를 프로세서(220)로 제공할 수 있다.
일 실시 예에 따른 펜 인식 패널(322)은 디스플레이 화면의 x축과 y축 배열의 방향으로 중첩된 다수의 루프 안테나 코일을 포함하는 FPCB(flexible printed circuit board)를 포함할 수 있다. 일 실시 예에 따른 펜 인식 IC(324)는 펜 인식 패널(322)에 교류 전류를 제공하여 전자기장이 발생되도록 제어할 수 있다. 일 실시 예에 따른 펜 인식 패널(322)에 의해 발생된 전자기장은 펜 장치(205)가 펜 인식 패널(322)에 의한 전자기장에 접촉(예: 터치) 또는 접근함에 따라 펜 장치(205)의 공진 회로(미도시)에 영향을 줄 수 있다. 펜 인식 패널(322)에 의한 전자 기장에 의해 펜 장치(205)의 공진 회로에 전류가 발생될 수 있고 펜 장치(205)의 공진 회로에 발생된 전류에 의해 펜 장치(205)의 공진 회로에도 자기장이 형성될 수 있다. 일 실시 예에 따른 펜 인식 IC(324)는 디스플레이 화면의 부분 영역 또는 전체 영역에 대해 펜 장치(205)로부터 펜 인식 패널(322)로 인가되는 자기장의 강도를 스캔하여 펜 장치(205)의 위치를 검출하고 검출된 위치 정보(예: 좌표(x, y))를 프로세서(220)로 제공할 수 있다.
일 실시 예에 따른 디스플레이 패널(미도시)은 디스플레이 화면을 표시할 수 있다. 일 실시 예에 따른 디스플레이 패널(미도시)은 디스플레이(260)에 표시될 데이터 정보와 펜 장치(205)의 좌표 정보를 이용하여 생성된 펜 입력 정보를 이용하여 생성된 디스플레이 화면을 표시할 수 있다.
일 실시 예에 따른 터치 센서 패널(312)와 터치 센서 IC(314)는 서로 연결된 터치 센서 회로(310)로 구현될 수 있고, 일 실시 예에 따른 펜 인식 패널(322)과 펜 인식 IC(324)는 서로 연결된 펜 인식 회로(320)로 구현될 수 있다.
일 실시 예에 따른 프로세서(220)(예: 도 1의 프로세서(120))(또는 호스트)는 전자 장치(201)의 전반적인 제어 동작을 수행할 수 있다. 일 실시 예에 따른 프로세서(220)는 터치 센서 회로(310)를 통해 디스플레이(260) 상의 전도성 객체(또는 손바닥)의 위치(예: 제1 팜 위치)를 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 터치 센서 IC(314)로부터 제공되는 또는 전도체(예: 손바닥(팜))의 위치 정보(예: 좌표(x, y))를 기반으로 전도성 객체(또는 손바닥)의 위치(예: 제1 팜 위치)를 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 펜 입력 회로(320)를 통해 펜 장치(205)에 의한 호버 인 상태(예: 접근 상태)를 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 펜 인식 IC(324)로부터 제공되는 펜 장치(205)의 위치 정보(예: 좌표(x, y))를 기반으로 펜 장치(205)에 의한 호버 인 상태(예: 접근 상태)와 펜 장치(205)의 위치를 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 제1 팜 위치 및 호버 인 상태의 식별에 기반하여 펜 장치(205)의 위치(예: 제1 위치), 펜 장치(205)의 틸트 정보(예: 제1 틸트 정보), 및 디스플레이(260)의 화면 상태(예: 제1 화면 상태)를 식별할 수 있다.
일 실시 예에 따르면 디스플레이의 화면 상태는 가로 상태 또는 세로 상태를 포함할 수 있다. 일 실시 예에 따른 프로세서(220)는 전자 장치(201)의 회전 상태에 따라 디스플레이(260) 화면을 가로 상태로 표시하거나 세로 상태로 표시할 수 있다. 일 실시 예에 따른 프로세서(220)는 디스플레이 화면 상태가 가로 상태인 경우 디스플레이 화면의 x축을 기준으로 펜 장치(205)의 제1 위치의 좌 방향 또는 우 방향을 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 디스플레이 화면 상태가 세로 상태인 경우 디스플레이 화면의 y축을 기준으로 펜 장치의 좌 방향 또는 우 방향을 식별할 수 있다. 일 실시 예에 따른 가로 상태 및 세로 상태는 디스플레이 화면의 가로 및 세로의 정의에 따라 가로가 세로가 되거나 세로가 가로가 될 수 있다.
일 실시 예에 따르면 펜 장치(205)의 틸트 정보는 펜 장치(205)의 기준축(reference axis)(이하, 길이방향 축(longitudinal axis)이라고 칭할 수도 있음)과 디스플레이 화면(xy 평면) z축(또는 수직축) 사이의 각도를 포함할 수 있다. 일 실시 예에 따른 프로세서(220)는 디스플레이 화면의 제1 위치에서 펜 장치(205)의 기준축과 디스플레이 화면(xy 평면)의 z축 사이의 각도를 기반으로 틸트 정보(예: 제1 틸트 정보)를 획득할 수 있다. 예를 들면, 제1 틸트 정보를 획득하는 방식은 다양한 방식에 의해 산출될 수 있으며, 본 개시에서는 후술되는 도 7a, 도 7b, 및 도 7c의 설명에 기반하여 산출될 수 있다. 예를 들면, 디스플레이 화면의 제1 위치에서 펜 장치(205)의 기준축(또는 펜 장치(205)의 가로 길이 방향의 축)이 디스플레이(xy 평면)의 z축(또는 수직축)과 약 0도 차이가 나는 경우 펜 장치(205)는 디스플레이 화면에 수직으로 호버 인(또는 접촉)된 상태일 수 있다. 일 실시 예에 따르면, 디스플레이 화면의 제1 위치에서 펜 장치(205)의 기준축과 디스플레이 화면(xy 평면)의 z축(또는 수직축) 사이의 각도가 제1 지정된 각도 범위(예: 약 0도 내지 약 -90(또는 약 +90) 사이)인 경우 펜 장치(205)가 디스플레이 화면의 수직 방향(z방향)을 기준으로 오른쪽으로 기울어져 호버 인(또는 접촉)된 상태일 수 있다. 일 실시 예에 따른 프로세서(220)는 펜 장치(205)가 디스플레이 화면의 수직 방향(예: z축)을 기준으로 오른쪽으로 기울어져 호버 인(또는 접촉)된 상태인 경우 오른손에 의해 필기가 되는 오른손 모드를 식별할 수 있다. 예를 들면, 펜 장치(205)가 디스플레이 화면의 제1 위치에서 펜 장치(205)의 기준축과 디스플레이 화면(xy 평면)의 z축(또는 수직축) 사이의 각도가 제2 지정된 각도 범위(예: 약 0도 내지 +90도(또는 -90) 사이)인 경우 펜 장치(205)가 디스플레이 화면의 수직 방향(예: z축)을 기준으로 왼쪽으로 기울어져 호버 인(또는 접촉)된 상태일 수 있다. 일 실시 예에 따른 프로세서(220)는 펜 장치(205)가 디스플레이 화면의 수직 방향(예: z축)을 기준으로 왼쪽으로 기울어져 호버 인(또는 접촉)된 상태인 경우 왼손에 의해 필기가 되는 왼손 모드를 식별할 수 있다.
일 실시 예에 따른 프로세서(220)는 제1 팜 위치, 펜 장치(205)의 제1 위치, 펜 장치(205)의 제1 틸트 정보, 및 제1 화면 상태에 기반하여 터치 센싱 회로(310)에 의해 스캔이 수행될 제1 스캔 영역과 터치 센싱 회로(310)에 의해 스캔이 수행되지 않을 제1 스캔 제외 영역을 식별할 수 있다.
일 실시 예에 따르면 프로세서(220)는 제1 팜 위치가 식별된 상태에서 펜 장치(205)가 제1 위치에 있고, 펜 장치(205)의 화면 상태가 가로 상태에서 펜 장치(205)의 제1 틸트 정보가 오른쪽으로 기울어진 상태를 나타내는 경우 디스플레이 화면의 x축을 기준으로 펜 장치(205)의 제1 위치의 좌 방향에 대응된 영역을 제1 스캔 영역으로 식별하고 제1 스캔 영역이 아닌 영역을 제1 스캔 제외 영역으로 식별할 수 있다. 일 실시 예에 따르면 프로세서(220)는 제1 팜 위치가 식별된 상태에서 펜 장치(205)가 제1 위치에 있고, 펜 장치(205)의 화면 상태가 가로 상태에서 펜 장치(205)의 제1 틸트 정보가 왼쪽으로 기울어진 상태를 나타내는 경우 디스플레이 화면의 x축을 기준으로 펜 장치(205)의 제1 위치의 우 방향에 대응된 영역을 제1 스캔 영역으로 식별하고 제1 스캔 영역이 아닌 영역을 제1 스캔 제외 영역으로 식별할 수 있다. 일 실시 예에 따르면 프로세서(220)는 제1 팜 위치가 식별된 상태에서 펜 장치(205)가 제1 위치에 있고, 펜 장치(205)의 화면 상태가 세로 상태에서 펜 장치(205)의 제1 틸트 정보가 오른쪽으로 기울어진 상태를 나타내는 경우 디스플레이 화면의 y축을 기준으로 펜 장치(205)의 제1 위치의 좌 방향에 대응된 영역을 제1 스캔 영역으로 식별하고 제1 스캔 영역에 아닌 영역을 제1 스캔 제외 영역으로 식별할 수 있다. 일 실시 예에 따르면 프로세서(220)는 제1 팜 위치가 식별된 상태에서 펜 장치(205)가 제1 위치에 있고, 펜 장치(205)의 화면 상태가 세로 상태에서 펜 장치(205)의 제1 틸트 정보가 왼쪽으로 기울어진 상태를 나타내는 경우 디스플레이 화면의 y축을 기준으로 펜 장치(205)의 제1 위치의 우 방향에 대응된 영역을 제1 영역으로 식별하고 제1 스캔 영역이 아닌 제1 스캔 제외 영역으로 식별할 수 있다.
일 실시 예에 따른 프로세서(220)는 상기 제1 스캔 영역 및 상기 제1 스캔 제외 영역 식별에 기반하여 터치 센싱 회로(310)가 제1 스캔 영역에 대한 스캔을 수행하고 제1 스캔 제외 영역에 대한 스캔을 수행하지 않도록 하는 제1 부분 스캔을 수행하도록 제어할 수 있다. 일 실시 예에 따른 터치 센싱 회로(310)는 터치 센서 패널(312)의 전극들 중 제1 스캔 영역에 대응된 전극들에 지정된 전력(또는 전압 또는 전류)을 제공하고, 제1 스캔 제외 영역에 대응된 전극들에 지정된 전력(또는 전압 또는 전류)을 제공하지 않을 수 있다.
일 실시 예에 따른 프로세서(220)는 펜 장치(205)가 제1 위치에서 제2 위치로의 이동하는 것을 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 펜 장치(205)의 제1 위치에서 제2 위치로의 이동 식별에 기반하여 제2 팜 위치, 펜 장치(205)의 제2 위치, 펜 장치(205)의 제2 틸트 정보, 및 디스플레이(260)의 제2 화면 상태를 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 제2 팜 위치, 펜 장치(205)의 제2 위치, 펜 장치(205)의 제2 틸트 정보, 및 제2 화면 상태에 기반하여 터치 센싱 회로(310)에 의해 스캔이 수행될 제2 스캔 영역과 펜 입력 회로(320)에 의해 스캔이 수행되지 않을 제2 스캔 제외 영역을 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 제2 스캔 영역 및 제2 스캔 제외 영역 식별에 기반하여 터치 센싱 회로(310)가 제2 스캔 영역에 대한 스캔을 수행하고 제2 스캔 제외 영역에 대한 스캔을 수행하지 않도록 하는 제2 부분 스캔을 수행하도록 제어할 수 있다.
일 실시 예에 따른 프로세서(220)는 펜 장치(205)의 호버 아웃 상태 식별에 기반하여 터치 센싱 회로(310)가 풀 스캔을 수행하도록 제어할 수 있다.
일 실시 예에 따른 메모리(230)(예: 도 1의 메모리(130))는, 전자 장치(201)의 적어도 하나의 구성요소(예: 프로세서(220) 또는 디스플레이(260))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 일 실시 예에 따른 메모리(230)는 상기 디스플레이 화면 내의 복수의 영역들 각각을 나타내는 인디케이터들을 저장할 수 있다. 일 실시 예에 따른 메모리(230)는 프로세서(220)가 디스플레이의 터치 센싱을 위한 스캔 동작을 수행하도록 설정된 인스트럭션들을 저장할 수 있다.
일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 2의 전자 장치(201))는 터치 센서 회로(예: 도 3의 터치 센서 회로(310)) 및 펜 입력 회로(예: 도 3의 터치 센서 회로(320))를 포함하는 디스플레이(예: 도 1의 디스플레이(160) 또는 도 2의 디스플레이(260)), 인스트럭션들을 저장하는 메모리(예: 도 1의 메모리(130) 또는 도 2의 메모리(230)), 및 프로세서(예: 도 1의 프로세서(120) 또는 도 2의 프로세서(220))를 포함할 수 있다. 일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 터치 센서 회로를 통해 상기 디스플레이 상의 제1 팜 위치를 식별하고, 상기 펜 입력 회로를 통해 펜 장치에 의한 호버 인 상태를 식별하도록 할 수 있다. 일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 제1 팜 위치 및 상기 호버 인 상태의 식별에 기반하여 상기 펜 장치의 제1 위치, 상기 펜 장치의 제1 틸트 정보, 및 상기 디스플레이의 제1 화면 상태를 식별하도록 할 수 있다. 일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 제1 팜 위치, 상기 펜 장치의 제1 위치, 상기 제1 틸트 정보, 및 상기 제1 화면 상태에 기반하여 상기 터치 센서 회로에 의해 스캔이 수행될 제1 스캔 영역과 상기 터치 센서 회로에 의해 스캔이 수행되지 않을 제1 스캔 제외 영역을 식별하도록 할 수 있다. 일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 터치 센서 회로가 상기 제1 스캔 영역에 대한 스캔을 수행하고 상기 제1 스캔 제외 영역에 대한 스캔을 수행하지 않도록 하는 제1 부분 스캔을 수행하도록 제어하도록 할 수 있다.
일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 펜 장치의 호버 아웃 상태 식별에 기반하여 상기 터치 센서 회로가 풀 스캔을 수행하도록 제어하도록 할 수 있다.
일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 펜 장치의 상기 제1 위치에서 제2 위치로의 이동 식별에 기반하여 제2 팜 위치, 상기 펜 장치의 상기 제2 위치, 상기 펜 장치의 제2 틸트 정보, 및 상기 디스플레이의 제2 화면 상태를 식별하도록 할 수 있다. 일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 제2 팜 위치, 상기 펜 장치의 상기 제2 위치, 상기 제2 틸트 정보, 및 상기 제2 화면 상태에 기반하여 상기 터치 센서 회로에 의해 스캔이 수행될 제2 스캔 영역과 상기 터치 센서 회로에 의해 스캔이 수행되지 않을 제2 스캔 제외 영역을 식별하도록 할 수 있다. 일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 터치 센서 회로가 상기 제2 스캔 영역에 대한 스캔을 수행하고 상기 제2 스캔 제외 영역에 대한 스캔을 수행하지 않도록 하는 제2 부분 스캔을 수행하도록 제어하도록 할 수 있다.
일 실시 예에 따른 상기 제1 스캔 제외 영역과 상기 제2 스캔 제외 영역은 서로 다른 영역일 수 있다.
일 실시 예에 따른 상기 제1 디스플레이 화면 상태는 가로 상태 또는 세로 상태일 수 있다.
일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 제1 디스플레이 화면 상태가 상기 가로 상태인 경우 디스플레이 화면의 x축을 기준으로 상기 펜 장치의 상기 제1 위치의 좌 방향 또는 우 방향을 식별하도록 할 수 있다. 일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 제1 디스플레이 화면 상태가 상기 세로 상태인 경우 상기 디스플레이 화면의 y축을 기준으로 상기 펜 장치의 상기 좌 방향 또는 상기 우 방향을 식별하도록 할 수 있다.
일 실시 예에 따른 상기 틸트 정보는 상기 펜 장치의 기준축과 상기 디스플레이의 화면 의 z축 사이의각도를 포함할 수 있다.
일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 각도가 제1 지정된 각도 범위 내인 경우 상기 펜 장치의 상기 제1 위치의 상기 좌 방향에 기반하여 상기 제1 스캔 제외 영역을 식별하도록 할 수 있다. 일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 각도가 제2 지정된 각도 범위 내인 경우 상기 펜 장치의 상기 제1 위치의 상기 우 방향에 기반하여 상기 제1 스캔 제외 영역을 식별하도록 할 수 있다.
일 실시 예에 따른 상기 메모리는 상기 디스플레이 화면 내의 복수의 영역들 각각을 나타내는 인디케이터들을 저장할 수 있다.
일 실시 예에 따른 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금, 상기 영역 인디케이터들 중 상기 제1 스캔 제외 영역에 대응된 제1 인디케이터를 상기 터치 센서 회로에 전달하도록 할 수 있다.
도 4는 일 실시 예에 따른 전자 장치에서 풀 스캔 및 부분 스캔 동작 절차를 나타낸 도면이다.
도 4를 참조하면, 일 실시 예에 따른 전자 장치(201)(예: 도 1의 전자 장치(201)의 터치 센서 회로(310)는 터치 패널(312)의 수신 전극들에 대한 풀 스캔을 수행하여 전도체(예: 손바닥(팜))의 접촉(예: 터치)을 검출할 수 있다. 일 실시 예에 따른 터치 센서 회로(310)는 터치 패널(312)의 수신 전극들에 대한 풀 스캔을 수행에 의한 전도체(예: 손바닥(팜))의 접촉(예: 터치)이 검출된 경우 전도체(예: 손바닥(팜))의 위치 정보(예: 좌표(x, y) 또는 좌표들)(예: 제1 팜 위치 정보)를 프로세서(220)에 전달할 수 있다(1. Detect the palm(full-scanning).
일 실시 예에 따른 펜 인식 회로(320)는 펜 장치(205)로부터 펜 인식 패널(322)로 인가되는 자기장의 강도를 스캔하여 펜 장치(205)의 호버 인 상태를 식별할 수 있다. 일 실시 예에 따른 펜 인식 회로(320)는 펜 장치(205)의 호버 인 상태를 식별에 기반하여 펜 장치(205)의 위치를 검출하고 검출된 펜 장치(205)의 위치(예: 좌표(x, y))(예: 제1 위치)를 프로세서(220)로 제공할 수 있다(2. Pen hover in).
일 실시 예에 따른 프로세서(220)는 터치 센서 회로(310)로부터의 제1 팜 위치와 펜 인식 회로(320)로부터의 펜 장치(205)의 위치 정보(예: 제1 위치) 수신에 기반하여 전체 스캔 영역 중 터치 센싱 회로(310)에 의해 스캔이 수행될 영역과 스캔이 수행되지 않을 스캔 제외 영역을 계산(또는 식별)할 수 있다(3. Calculate an area to be excluded). 예를 들면, 프로세서(220)는 터치 센서 회로(310)로부터의 팜 위치 정보 수신과 펜 인식 회로(320)로부터의 의한 펜 장치(205)의 위치 정보 수신에 기반하여 제1 팜 위치 및 펜 장치(205)의 제1 위치, 펜 장치(205)의 제1 틸트 정보, 및 디스플레이(260)의 제1 화면 상태를 식별하고, 제1 팜 위치, 펜 장치(205)의 제1 위치, 펜 장치(205)의 제1 틸트 정보, 및 제1 화면 상태에 기반하여 터치 센싱 회로(310)에 의해 스캔이 수행될 스캔 영역과 터치 센싱 회로(310)에 의해 스캔이 수행되지 않을 스캔 제외 영역을 식별할 수 있다.
일 실시 예에 따른 프로세서(220)는 터치 센서 회로(310)에 스캔 모드를 풀 스캔 모드에서 부분 스캔 모드로 변경하도록 하는 명령을 전송할 수 있다. 일 실시 예에 따른 프로세서(220)는 USB HID(human interface device) 클래스를 이용하여 부분 스캔 모드로 변경하도록 하는 명령과 스캔 제외 영역에 대응된 영역 인디케이터를 터치 센서 회로(310)에 전송할 수 있다(4. Send HID command for charging scan mode).
일 실시 예에 따른 터치 센서 회로(310)는 프로세서(220)로부터 명령 수신에 기반하여 스캔 모드를 풀 스캔(full scan) 모드에서 부분 스캔(part scan) 모드로 변경하고 전체 스캔 영역 중 스캔 제외 영역을 제외한 스캔 영역에 대해 부분 스캔을 수행할 수 있다(5. Change the scan mode).
일 실시 예에 따른 펜 인식 회로(320)는 펜 장치(205)로부터 펜 인식 패널(322)로 인가되는 자기장의 강도를 스캔하여 펜 장치(205)의 호버 아웃 상태를 식별할 수 있다. 일 실시 예에 따른 펜 인식 회로(320)는 펜 장치(205)의 호버 아웃 상태를 프로세서(220)로 제공할 수 있다(6. Pen hover out).
일 실시 예에 따른 프로세서(220)는 펜 장치(205)의 호버 아웃 상태 식별에 기반하여 터치 센서 회로(310)에 스캔 모드를 부분 스캔 모드에서 풀 스캔 모드로 변경하도록 하는 명령을 전송할 수 있다. 일 실시 예에 따른 프로세서(220)는 USB HID(human interface device) 클래스를 이용하여 풀 스캔 모드로 변경하도록 하는 명령을 터치 센서 회로(310)에 전송할 수 있다(7. Send HID command for charging scan mode).
일 실시 예에 따른 터치 센서 회로(310)는 프로세서(220)로부터 명령 수신에 기반하여 스캔 모드를 부분 스캔모드에서 풀 스캔 모드로 변경하고 전체 스캔 영역에 대해 풀 스캔을 수행할 수 있다(8. Change the scan mode).
도 5는 일 실시 예에 따른 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 동작을 도시한 흐름도이다.
도 5를 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101), 또는 도 2의 전자 장치(201))(또는 도 1의 프로세서(120) 또는 도 2의 프로세서(220))는 510 내지 540 동작 중 적어도 하나의 동작을 수행할 수 있다.
510 동작에서, 일 실시 예에 따른 프로세서(220)는 터치 센서 회로(310)를 통해 디스플레이(260) 상의 전도성 객체(또는 손바닥)의 위치(예: 제1 팜 위치)를 식별하고, 펜 입력 회로(320)를 통해 펜 장치(205)에 의한 호버 인 상태(예: 접근 상태)를 식별할 수 있다.
520 동작에서, 일 실시 예에 따른 프로세서(220)는 제1 팜 위치 및 호버 인 상태의 식별에 기반하여 펜 장치(205)의 위치(예: 제1 위치), 펜 장치(205)의 틸트 정보(예: 제1 틸트 정보), 및 디스플레이(260)의 화면 상태(예: 제1 화면 상태)를 식별할 수 있다.
일 실시 예에 따르면 디스플레이의 화면 상태는 가로 상태 또는 세로 상태를 포함할 수 있다. 일 실시 예에 따른 프로세서(220)는 전자 장치(202)의 회전 상태에 따라 디스플레이(260) 화면을 가로 상태로 표시하거나 세로 상태로 표시할 수 있다. 일 실시 예에 따른 프로세서(220)는 디스플레이 화면 상태가 가로 상태인 경우 디스플레이 화면의 x축을 기준으로 펜 장치(205)의 제1 위치의 좌 방향 또는 우 방향을 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 디스플레이 화면 상태가 세로 상태인 경우 디스플레이 화면의 y축을 기준으로 펜 장치의 좌 방향 또는 우 방향을 식별할 수 있다. 일 실시 예에 따른 가로 상태 및 세로 상태는 디스플레이 화면의 가로 및 세로의 정의에 따라 가로가 세로가 되거나 세로가 가로가 될 수 있다.
일 실시 예에 따르면 펜 장치(205)의 틸트 정보는 펜 장치(205)의 기준축과 디스플레이 화면(xy 평면)의 z축 사이의 각도를 포함할 수 있다. 일 실시 예에 따른 프로세서(220)는 디스플레이 화면의 제1 위치에서 펜 장치(205)의 기준축과 디스플레이 화면(xy 평면)의 z축 사이의 각도를 기반으로 틸트 정보(예: 제1 틸트 정보)를 획득할 수 있다. 예를 들면, 제1 틸트 정보를 획득하는 방식은 다양한 방식에 의해 산출될 수 있으며, 본 개시에서는 후술되는 도 7a, 도 7b, 및 도 7c의 설명에 기반하여 산출될 수 있다.
예를 들면, 디스플레이 화면의 제1 위치에서 펜 장치(205)의 기준축(또는 펜 장치(205)의 가로 길이 방향의 축)이 디스플레이(xy 평면)의 z축(또는 수직축)과 약 0도 차이가 나는 경우 펜 장치(205)는 디스플레이 화면에 수직으로 호버 인(또는 접촉)된 상태일 수 있다. 일 실시 예에 따르면, 디스플레이 화면의 제1 위치에서 펜 장치(205)의 기준축과 디스플레이 화면(xy 평면)의 z축(또는 수직축) 사이의 각도가 약 0도 내지 약 -90(또는 약 +90) 사이인 경우 펜 장치(205)가 디스플레이 화면의 수직 방향(z방향)을 기준으로 오른쪽으로 기울어져 호버 인(또는 접촉)된 상태일 수 있다. 일 실시 예에 따른 프로세서(220)는 펜 장치(205)가 디스플레이 화면의 수직 방향(예: z축)을 기준으로 오른쪽으로 기울어져 호버 인(또는 접촉)된 상태인 경우 오른손에 의해 필기가 되는 오른손 모드를 식별할 수 있다. 예를 들면, 펜 장치(205)가 디스플레이 화면의 제1 위치에서 펜 장치(205)의 기준축과 디스플레이 화면(xy 평면)의 z축(또는 수직축) 사이의 각도가 약 0도 내지 +90도(또는 -90) 사이인 경우 펜 장치(205)가 디스플레이 화면의 수직 방향(예: z축)을 기준으로 왼쪽으로 기울어져 호버 인(또는 접촉)된 상태일 수 있다. 일 실시 예에 따른 프로세서(220)는 펜 장치(205)가 디스플레이 화면의 수직 방향(예: z축)을 기준으로 왼쪽으로 기울어져 호버 인(또는 접촉)된 상태인 경우 왼손에 의해 필기가 되는 왼손 모드를 식별할 수 있다.
530 동작에서, 일 실시 예에 따른 프로세서(220)는 제1 팜 위치, 펜 장치(205)의 제1 위치, 펜 장치(205)의 제1 틸트 정보, 및 제1 화면 상태에 기반하여 터치 센싱 회로(310)에 의해 스캔이 수행될 제1 스캔 영역과 터치 센싱 회로(310)에 의해 스캔이 수행되지 않을 제1 스캔 제외 영역을 식별할 수 있다.
일 실시 예에 따르면 프로세서(220)는 제1 팜 위치가 식별된 상태에서 펜 장치(205)가 제1 위치에 있고, 펜 장치(205)의 화면 상태가 가로 상태에서 펜 장치(205)의 제1 틸트 정보가 오른쪽으로 기울어진 상태를 나타내는 경우 디스플레이 화면의 x축을 기준으로 펜 장치(205)의 제1 위치의 좌 방향에 대응된 영역을 제1 스캔 영역으로 식별하고 제1 스캔 영역이 아닌 영역을 제1 스캔 제외 영역으로 식별할 수 있다. 일 실시 예에 따르면 프로세서(220)는 제1 팜 위치가 식별된 상태에서 펜 장치(205)가 제1 위치에 있고, 펜 장치(205)의 화면 상태가 가로 상태에서 펜 장치(205)의 제1 틸트 정보가 왼쪽으로 기울어진 상태를 나타내는 경우 디스플레이 화면의 x축을 기준으로 펜 장치(205)의 제1 위치의 우 방향에 대응된 영역을 제1 스캔 영역으로 식별하고 제1 스캔 영역이 아닌 영역을 제1 스캔 제외 영역으로 식별할 수 있다. 일 실시 예에 따르면 프로세서(220)는 제1 팜 위치가 식별된 상태에서 펜 장치(205)가 제1 위치에 있고, 펜 장치(205)의 화면 상태가 세로 상태에서 펜 장치(205)의 제1 틸트 정보가 오른쪽으로 기울어진 상태를 나타내는 경우 디스플레이 화면의 y축을 기준으로 펜 장치(205)의 제1 위치의 좌 방향에 대응된 영역을 제1 스캔 영역으로 식별하고 제1 스캔 영역에 아닌 영역을 제1 스캔 제외 영역으로 식별할 수 있다. 일 실시 예에 따르면 프로세서(220)는 제1 팜 위치가 식별된 상태에서 펜 장치(205)가 제1 위치에 있고, 펜 장치(205)의 화면 상태가 세로 상태에서 펜 장치(205)의 제1 틸트 정보가 왼쪽으로 기울어진 상태를 나타내는 경우 디스플레이 화면의 y축을 기준으로 펜 장치(205)의 제1 위치의 우 방향에 대응된 영역을 제1 영역으로 식별하고 제1 스캔 영역이 아닌 제1 스캔 제외 영역으로 식별할 수 있다.
540 동작에서, 일 실시 예에 따른 프로세서(220)는 상기 제1 스캔 영역 및 상기 제1 스캔 제외 영역 식별에 기반하여 터치 센싱 회로(310)가 제1 스캔 영역에 대한 스캔을 수행하고 제1 스캔 제외 영역에 대한 스캔을 수행하지 않도록 하는 제1 부분 스캔을 수행하도록 제어할 수 있다.
일 실시 예에 따른 프로세서(220)는 제1 부분 스캔 중 펜 장치(205)가 제1 위치에서 제2 위치로의 이동하는 것을 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 펜 장치(205)의 제1 위치에서 제2 위치로의 이동 식별에 기반하여 제2 팜 위치, 펜 장치(205)의 제2 위치, 펜 장치(205)의 제2 틸트 정보, 및 디스플레이(260)의 제2 화면 상태를 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 제2 팜 위치, 펜 장치(205)의 제2 위치, 펜 장치(205)의 제2 틸트 정보, 및 제2 화면 상태에 기반하여 터치 센싱 회로(310)에 의해 스캔이 수행될 제2 스캔 영역과 펜 입력 회로(320)에 의해 스캔이 수행되지 않을 제2 스캔 제외 영역을 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 제2 스캔 영역 및 제2 스캔 제외 영역 식별에 기반하여 터치 센싱 회로(310)가 제2 스캔 영역에 대한 스캔을 수행하고 제2 스캔 제외 영역에 대한 스캔을 수행하지 않도록 하는 제2 부분 스캔을 수행하도록 제어할 수 있다. 일 실시 예에 따른 프로세서(220)는 펜 장치(205)의 호버 아웃 상태 식별에 기반하여 터치 센싱 회로(310)가 풀 스캔을 수행하도록 제어할 수 있다.
일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 3의 전자 장치(201))에서 디스플레이의 터치 센싱을 위한 스캔 방법은 터치 센서 회로를 통해 상기 디스플레이 상의 제1 팜 위치를 식별하고 펜 입력 회로를 통해 펜 장치에 의한 호버 인 상태를 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 방법은 상기 제1 팜 위치 및 상기 호버 인 상태의 식별에 기반하여 상기 펜 장치의 제1 위치, 상기 펜 장치의 제1 틸트 정보, 및 상기 디스플레이의 제1 화면 상태를 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 방법은 상기 제1 팜 위치, 상기 펜 장치의 제1 위치, 상기 제1 틸트 정보, 및 상기 제1 화면 상태에 기반하여 상기 터치 센서 회로에 의한 스캔 영역 중 제1 스캔 영역과 제1 스캔 제외 영역을 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 방법은 상기 터치 센서 회로를 통해 상기 제1 스캔 영역에 대한 스캔을 수행하고 상기 제1 스캔 제외 영역에 대한 스캔을 수행하지 않는 제1 부분 스캔을 수행하는 동작을 포함할 수 있다.
일 실시 예에 따른 상기 방법은 상기 펜 장치의 호버 아웃 상태 식별에 기반하여 상기 터치 센서 회로가 상기 스캔 영역에 대해 풀 스캔을 수행하는 동작을 더 포함할 수 있다.
일 실시 예에 따른 상기 방법은 상기 디스플레이 상에서 상기 펜 장치의 상기 제1 위치에서 제2 위치로의 이동 식별에 기반하여 제2 손 위치, 상기 펜 장치의 상기 제2 위치, 상기 펜 장치의 제2 틸트 정보, 및 상기 디스플레이의 제2 화면 상태를 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 방법은 상기 제2 팜 위치, 상기 펜 장치의 상기 제2 위치, 상기 제2 틸트 정보, 및 상기 제2 화면 상태에 기반하여 상기 터치 센서 회로에 의해 스캔이 수행될 스캔 영역 중 제2 스캔 영역과 제2 스캔 제외 영역을 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 방법은 상기 터치 센서 회로를 통해 상기 제2 스캔 영역에 대한 스캔을 수행하고 상기 제2 스캔 제외 영역에 대한 스캔을 수행하지 않는 제2 부분 스캔을 수행하는 동작을 포함할 수 있다.
일 실시 예에 따른 상기 방법에서 상기 제1 스캔 제외 영역과 상기 제2 스캔 제외 영역은 서로 다른 영역일 수 있다.
일 실시 예에 따른 상기 방법은 상기 디스플레이 화면 상태가 가로 상태인지 세로 상태인지 식별하는 동작을 포함할 수 있다.
일 실시 예에 따른 상기 방법은 상기 디스플레이 화면 상태가 상기 가로 상태인 경우 디스플레이 화면의 x축을 기준으로 상기 펜 장치의 좌 방향 또는 우 방향을 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 방법은 상기 디스플레이의 화면 상태가 상기 세로 상태인 경우 상기 디스플레이 화면의 y축을 기준으로 상기 펜 장치의 상기 좌 방향 또는 상기 우 방향을 식별하는 동작을 포함할 수 있다.
일 실시 예에 따른 상기 방법에서 상기 틸트 정보는 상기 펜 장치의 기준축과 상기 디스플레이의 화면의 수직축 사이의 각도를 포함할 수 있다.
일 실시 예에 따른 상기 방법은 상기 각도가 제1 지정된 각도 범위 내인 경우 상기 펜 장치의 상기 좌 방향에 기반하여 상기 제1 스캔 제외 영역을 식별하는 동작을 포함할 수 있다. 일 실시 예에 따른 상기 방법은 상기 각도가 제2 지정된 각도 범위내인 경우 상기 펜 장치의 상기 우 방향에 기반하여 상기 제1 스캔 제외 영역을 식별하는 동작을 포함할 수 있다.
일 실시 예에 따른 상기 방법은 상기 메모리에 저장된 상기 디스플레이 화면 내의 복수의 영역들 각각을 나타내는 인디케이터들 중 상기 제1 스캔 제외 영역에 대응된 제1 인디케이터를 상기 터치 센서 회로에 전달하는 동작을 포함할 수 있다.
도 6은 일 실시 예에 따른 전자 장치의 디스플레이 화면 상의 팜 위치와 펜 장치의 위치를 나타낸 도면이다.
도 6을 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101), 또는 도 2의 전자 장치(201))의 프로세서(도 1의 프로세서(120) 또는 도 2의 프로세서(220))는 디스플레이(661)(또는 디스플레이 화면또는 전체 스캔 영역)의 가로축이 x축으로 설정되고 세로축이 y축으로 설정된 상태에서 디스플레이(661) 상의 위치를 x, y 좌표를 이용하여 나타낼 수 있다.
일 실시 예에 따른 프로세서(220)는 제1 팜 위치(614) 및 펜 장치(205)의 위치(예: 제1 위치)(612)에 기반하여 전체 스캔 영역(661) 중 터치 센서 회로(310)에 의해 스캔이 수행될 제1 스캔 영역과 터치 센서 회로(310)에 의해 스캔이 수행되지 않을 제1 스캔 제외 영역을 식별할 수 있다. 예를 들면, 프로세서(220)는 제1 팜 위치(614)가 펜 장치(205)의 제1 위치(612)의 왼쪽에 존재하고 펜 장치(205)의 틸트 정보가 왼쪽으로 기울어진 각도(예: 제2 지정된 각도 범위(예: 약 0도 내지 +90도(또는 -90) 사이))를 포함하는 경우 왼손잡이일 가능성이 높으므로 터치 센서 회로(310)에 의해 스캔이 수행되지 않을 제1 스캔 제외 영역을 펜 장치(205)의 제1 위치(612)의 오른쪽 영역으로 식별(또는 판단)할 수 있다. 도시되지 않았지만 프로세서(220)는 제1 팜 위치(614)가 펜 장치(205)의 제1 위치의 오른쪽에 존재하고 펜 장치(205)의 틸트 정보가 오른쪽으로 기울어진 각도(예: 제1 지정된 각도 범위(예: 약 0도 내지 약 -90(또는 약 +90) 사이))를 포함하는 경우(미도시) 오른손잡이일 가능성이 높으므로 터치 센서 회로(310)에 의해 스캔이 수행되지 않을 제1 스캔 제외 영역을 펜 장치(205)의 제1 위치(612)의 왼쪽 영역으로 식별(또는 판단)할 수 있다.
도 7a는 일 실시 예에 따른 전자 장치에서 펜 장치의 틸트 정보를 설명하기 위한 도면이다.
도 7a를 참조하면, 일 실시 예에 따른 펜 장치의 틸트 정보는 펜 장치(205)의 기준축(또는 펜 장치(205)의 가로 길이 방향의 축)(a)과 디스플레이(661)(xy 평면)의 z축(또는 수직축) 사이의 각도(T)을 포함할 수 있다. 일 실시 예에 따른 펜 장치(205)의 틸트 정보는 펜 장치(205)가 z축을 기준으로 왼쪽으로 기울어진 경우 제2 지정된 각도 범위(예: 약 0도 내지 +90도(또는 -90) 사이)를 가질 수 있고, 펜 장치(205)가 z축을 기준으로 오른쪽으로 기울어진 경우 제1 지정된 각도 범위(예: 약 0도 내지 약 -90(또는 약 +90)를 가질 수 있다.
도 7b는 일 실시 예에 따른 전자 장치에 펜 장치가 수직으로 접근된 경우를 나타낸 도면이다.
도 7b를 참조하면, 일 실시 예에 따른 디스플레이(661) 아래(또는 펜 센싱 패널(322))에는 자기장이 형성될 수 있고 자기장에 펜 장치(205)가 접근되면 펜 장치(205) 내부의 코일(710)에 의해 디스플레이(661)와 펜 장치(205) 사이에 전자기파(750)가 형성될 수 있다. 일 실시 예에 따르면 펜 장치(205)와 디스플레이(661)의 사이의 거리가 가장 가까운 곳의 전자기파(750) 세기(또는 밀도)가 가장 높고 펜 장치(205)와 디스플레이(661)의 사이의 거리가 멀수록 형성된 전자기파(750) 세기(또는 밀도)가 낮아질 수 있다.
일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101), 또는 도 2의 전자 장치(201))의 프로세서(도 1의 프로세서(120) 또는 도 2의 프로세서(220))는 펜 센싱 패널(322)을 통해 펜 장치(205)에 의해 형성된 전자기파(750)를 검출하고 검출된 전자기파(750)의 세기 분포(또는 검출된 전자기파의 모양)(755)를 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 식별된 전자기파의 세기 분포(755)가 동심원을 나타내는 경우 펜 장치(205)가 수직으로 접근한 상태(예: 틸트 정보가 약 0인 상태)를 식별할 수 있다.
도 7c는 일 실시 예에 따른 전자 장치에서 펜 장치가 왼쪽으로 기울어져 접근된 경우를 나타낸 도면이다.
도 7a 및 도 7c를 참조하면, 일 실시 예에 따른 디스플레이(661) 아래(또는 펜 센싱 패널(322))에는 자기장이 형성될 수 있고 자기장에 펜 장치(205)가 접근되면 펜 장치(205) 내부의 코일(710)에 의해서 디스플레이(661)와 펜 장치(205) 사이에 전자기파(750)가 형성될 수 있다. 일 실시 예에 따르면 펜 장치(205)와 디스플레이(661)의 사이의 거리가 가장 가까운 곳의 전자기파(750) 세기(또는 밀도)가 가장 높고 펜 장치(205)와 디스플레이(661)의 사이의 거리가 멀수록 형성된 전자기파(750) 세기(또는 밀도)가 낮아질 수 있다.
일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101), 또는 도 2의 전자 장치(201))의 프로세서(도 1의 프로세서(120) 또는 도 2의 프로세서(220))는 펜 센싱 패널(322)을 통해 전자기파(750)를 검출하고 검출된 전자기파의 세기 분포(또는 검출된 전자기파의 모양)(757)를 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 식별된 전자기파의 세기 분포(757)가 오른쪽으로 긴 타원을 나타내는 경우 펜 장치(205)가 왼쪽으로 기울어져 접근한 상태(예: 틸트 정보가 약 +20도인 상태, 또는 제2 지정된 각도 범위(예: 약 0도 내지 약 +90) 내)를 식별할 수 있다.
도 8은 일 실시 예에 따른 디스플레이의 가로 상태와 세로 상태를 설명하기 위한 도면이다.
도 8을 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101), 또는 도 2의 전자 장치(201))의 프로세서(도 1의 프로세서(120) 또는 도 2의 프로세서(220))는 전자 장치(201)의 회전 상태에 따라 디스플레이 화면(661)을 가로 상태로 표시하거나 세로 상태로 표시할 수 있다.
일 실시 예에 따른 프로세서(220)는 디스플레이 화면 상태가 가로 상태(810)인 경우 디스플레이 화면(661)의 x축을 기준으로 펜 장치(205)의 제1 위치의 좌 방향 또는 우 방향을 식별할 수 있다. 일 실시 예에 따른 프로세서(220)는 디스플레이 화면 상태가 세로 상태(820)인 경우 디스플레이 화면(661)의 y축을 기준으로 펜 장치(205)의 좌 방향 또는 우 방향을 식별할 수 있다. 일 실시 예에 따른 가로 상태 및 세로 상태는 디스플레이 화면의 가로 및 세로의 정의에 따라 가로가 세로가 되거나 세로가 가로가 될 수 있다.
도 9a는 일 실시 예에 따른 디스플레이가 가로 상태에서 사용자가 오른손으로 필기하는 경우의 스캔 영역과 스캔 제외 영역을 나타낸 도면이다.
도 9a를 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101), 또는 도 2의 전자 장치(201))의 프로세서(도 1의 프로세서(120) 또는 도 2의 프로세서(220))는 제1 팜 위치(예: 손바닥 위치)(914)가 식별된 상태에서 펜 장치(205)가 제1 위치(912)에 있고, 펜 장치(205)의 화면 상태가 가로 상태에서 펜 장치(205)의 제1 틸트 정보가 오른쪽으로 기울어진 상태를 나타내는 경우 디스플레이 화면(661)의 x축을 기준으로 펜 장치(205)의 제1 위치(912)의 좌 방향에 대응된 영역을 제1 스캔 영역(920)으로 식별하고 제1 스캔 영역(920)이 아닌 영역을 제1 스캔 제외 영역(910)으로 식별할 수 있다.
도 9b는 일 실시 예에 따른 디스플레이가 가로 상태에서 사용자가 왼손으로 필기하는 경우의 스캔 영역과 스캔 제외 영역을 나타낸 도면이다.
도 9b를 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101), 또는 도 2의 전자 장치(201))의 프로세서(도 1의 프로세서(120) 또는 도 2의 프로세서(220))는 제1 팜 위치(934)가 식별된 상태에서 펜 장치(205)가 제1 위치(932)에 있고, 펜 장치(205)의 화면 상태가 가로 상태에서 펜 장치(205)의 제1 틸트 정보가 왼쪽으로 기울어진 상태를 나타내는 경우 디스플레이 화면(661)의 x축을 기준으로 펜 장치(205)의 제1 위치(932)의 우 방향에 대응된 영역을 제1 스캔 영역(940)으로 식별하고 제1 스캔 영역(940)이 아닌 영역을 제1 스캔 제외 영역(930)으로 식별할 수 있다.
도 10a는 일 실시 예에 따른 디스플레이가 세로 상태에서 사용자가 오른손으로 필기하는 경우의 스캔 영역과 스캔 제외 영역을 나타낸 도면이다.
도 10a를 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101), 또는 도 2의 전자 장치(201))의 프로세서(도 1의 프로세서(120) 또는 도 2의 프로세서(220))는 제1 팜 위치(1012)가 식별된 상태에서 펜 장치(205)가 제1 위치(1011)에 있고, 펜 장치(205)의 화면 상태가 세로 상태에서 펜 장치(205)의 제1 틸트 정보가 오른쪽으로 기울어진 상태를 나타내는 경우 디스플레이 화면(661)의 y축을 기준으로 펜 장치(205)의 제1 위치(1011)의 좌 방향에 대응된 영역을 제1 스캔 영역(1020)으로 식별하고 제1 스캔 영역(1020)이 아닌 영역을 제1 스캔 제외 영역(1010)으로 식별할 수 있다.
도 10b는 일 실시 예에 따른 디스플레이가 세로 상태에서 사용자가 왼손으로 필기하는 경우의 스캔 영역과 스캔 제외 영역을 나타낸 도면이다.
도 10b를 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101), 또는 도 2의 전자 장치(201))의 프로세서(도 1의 프로세서(120) 또는 도 2의 프로세서(220))는 제1 팜 위치(1034)가 식별된 상태에서 펜 장치(205)가 제1 위치(1032)에 있고, 펜 장치(205)의 화면 상태가 세로 상태에서 펜 장치(205)의 제1 틸트 정보가 왼쪽으로 기울어진 상태를 나타내는 경우 디스플레이 화면(661)의 y축을 기준으로 펜 장치(205)의 제1 위치(1032)의 우 방향에 대응된 영역을 제1 스캔 영역(1040)으로 식별하고 제1 스캔 영역(1040)이 아닌 제1 스캔 제외 영역(1030)으로 식별할 수 있다.
일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101), 또는 도 2의 전자 장치(201))의 프로세서(도 1의 프로세서(120) 또는 도 2의 프로세서(220))는 상기 설명한 영역들 외에도 스캔 영역과 스캔 제외 영역을 다양한 영역으로 구분할 수 있다. 예를 들면, 프로세서(220)는 디스플레이 화면(661)을 2개를 초과하는 영역들로 구분하고 스캔 영역을 제외한 스캔 제외 영역을 2개를 초과하는 영역들 중 적어도 하나 또는 복수개 선택(또는 식별)할 수도 있다.
본 문서에 개시된 일 실시 예에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 일 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 일 실시 예에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 일 실시 예는 기기(machine)(예: 전자 장치(101) 또는 전자 장치(301)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(301))의 프로세서(예: 프로세서(520))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 일 실시 예에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
본 개시의 실시 예에 따르면, 일 실시 예에 따르면 명령들을 저장하고 있는 비일시적 저장 매체에 있어서, 상기 명령들은 전자 장치에 의하여 실행될 때에 상기 전자 장치로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 터치 센서 회로를 통해 상기 디스플레이 상의 제1 팜 위치를 식별하고 상기 펜 입력 회로를 통해 펜 장치에 의한 호버 인 상태를 식별하는 동작, 상기 제1 팜 위치 및 상기 호버 인 상태의 식별에 기반하여 상기 펜 장치의 제1 위치, 상기 펜 장치의 제1 틸트 정보, 및 상기 디스플레이의 제1 화면 상태를 식별하는 동작, 상기 제1 팜 위치, 상기 펜 장치의 제1 위치, 상기 제1 틸트 정보, 및 상기 제1 화면 상태에 기반하여 펜 입력 회로에 의한 스캔 영역 중 제1 스캔 영역과 제1 스캔 제외 영역을 식별하는 동작, 및 상기 펜 입력 회로를 통해 상기 제1 스캔 영역에 대한 스캔을 수행하고 상기 제1 스캔 제외 영역에 대한 스캔을 수행하지 않는 제1 부분 스캔을 수행하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 일 실시 예에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 일 실시 예에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치(101, 201)에 있어서,
    터치 센서 회로(310) 및 펜 입력 회로(320)를 포함하는 디스플레이(160, 260);
    인스트럭션들을 저장하는 메모리(130, 230); 및
    프로세서(120, 220)를 포함하고,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금,
    상기 터치 센서 회로를 통해 상기 디스플레이 상의 제1 팜 위치를 식별하고, 상기 펜 입력 회로를 통해 펜 장치에 의한 호버 인 상태를 식별하고,
    상기 제1 팜 위치 및 상기 호버 인 상태의 식별에 기반하여 상기 펜 장치의 제1 위치, 상기 펜 장치의 제1 틸트 정보, 및 상기 디스플레이의 제1 화면 상태를 식별하고,
    상기 제1 팜 위치, 상기 펜 장치의 제1 위치, 상기 제1 틸트 정보, 및 상기 제1 화면 상태에 기반하여 상기 터치 센서 회로에 의해 스캔이 수행될 제1 스캔 영역과 상기 터치 센서 회로에 의해 스캔이 수행되지 않을 제1 스캔 제외 영역을 식별하고,
    상기 터치 센서 회로가 상기 제1 스캔 영역에 대한 스캔을 수행하고 상기 제1 스캔 제외 영역에 대한 스캔을 수행하지 않도록 하는 제1 부분 스캔을 수행하도록 제어하도록 하는 전자 장치.
  2. 제1항에 있어서,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금,
    상기 펜 장치의 호버 아웃 상태 식별에 기반하여 상기 터치 센서 회로가 풀 스캔을 수행하도록 제어하도록 하는 전자 장치.
  3. 제1항 또는 제2항에 있어서,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금,
    상기 펜 장치의 상기 제1 위치에서 제2 위치로의 이동 식별에 기반하여 제2 팜 위치, 상기 펜 장치의 상기 제2 위치, 상기 펜 장치의 제2 틸트 정보, 및 상기 디스플레이의 제2 화면 상태를 식별하고,
    상기 제2 팜 위치, 상기 펜 장치의 상기 제2 위치, 상기 제2 틸트 정보, 및 상기 제2 화면 상태에 기반하여 상기 터치 센서 회로에 의해 스캔이 수행될 제2 스캔 영역과 상기 터치 센서 회로에 의해 스캔이 수행되지 않을 제2 스캔 제외 영역을 식별하고,
    상기 터치 센서 회로가 상기 제2 스캔 영역에 대한 스캔을 수행하고 상기 제2 스캔 제외 영역에 대한 스캔을 수행하지 않도록 하는 제2 부분 스캔을 수행하도록 제어하도록 하는 전자 장치.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제1 스캔 제외 영역과 상기 제2 스캔 제외 영역은 서로 다른 영역인 전자 장치.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 제1 디스플레이 화면 상태는 가로 상태 또는 세로 상태인 전자 장치.
  6. 제1항 내지 제5항 중 어느 한에 있어서,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금,
    상기 제1 디스플레이 화면 상태가 상기 가로 상태인 경우 디스플레이 화면의 x축을 기준으로 상기 펜 장치의 상기 제1 위치의 좌 방향 또는 우 방향을 식별하고,
    상기 제1 디스플레이 화면 상태가 상기 세로 상태인 경우 상기 디스플레이 화면의 y축을 기준으로 상기 펜 장치의 상기 좌 방향 또는 상기 우 방향을 식별하도록 하는 전자 장치.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 틸트 정보는 상기 펜 장치의 기준축과 상기 디스플레이의 화면의 수직축 사이의 각도를 포함하는 전자 장치.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금,
    상기 각도가 제1 지정된 범위 내인 경우 상기 펜 장치의 상기 제1 위치의 상기 좌 방향에 기반하여 상기 제1 스캔 제외 영역을 식별하고,
    상기 각도가 제2 지정된 범위 내인 경우 상기 펜 장치의 상기 제1 위치의 상기 우 방향에 기반하여 상기 제1 스캔 제외 영역을 식별하도록 하는 전자 장치.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 메모리는 상기 디스플레이 화면 내의 복수의 영역들 각각을 나타내는 인디케이터들을 저장하는 전자 장치.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치로 하여금,
    상기 영역 인디케이터들 중 상기 제1 스캔 제외 영역에 대응된 제1 인디케이터를 상기 터치 센서 회로에 전달하도록 하는 전자 장치.
  11. 전자 장치(101, 201)에서 디스플레이의 터치 센싱을 위한 스캔 방법에 있어서,
    터치 센서 회로를 통해 상기 디스플레이 상의 제1 팜 위치를 식별하고 펜 입력 회로를 통해 펜 장치에 의한 호버 인 상태를 식별하는 동작;
    상기 제1 팜 위치 및 상기 호버 인 상태의 식별에 기반하여 상기 펜 장치의 제1 위치, 상기 펜 장치의 제1 틸트 정보, 및 상기 디스플레이의 제1 화면 상태를 식별하는 동작;
    상기 제1 팜 위치, 상기 펜 장치의 제1 위치, 상기 제1 틸트 정보, 및 상기 제1 화면 상태에 기반하여 상기 터치 센서 회로에 의한 스캔 영역 중 제1 스캔 영역과 제1 스캔 제외 영역을 식별하는 동작; 및
    상기 터치 센서 회로를 통해 상기 제1 스캔 영역에 대한 스캔을 수행하고 상기 제1 스캔 제외 영역에 대한 스캔을 수행하지 않는 제1 부분 스캔을 수행하는 동작을 포함하는 방법.
  12. 제11항에 있어서,
    상기 펜 장치의 호버 아웃 상태 식별에 기반하여 상기 터치 센서 회로가 상기 스캔 영역에 대해 풀 스캔을 수행하는 동작을 포함하는 방법.
  13. 제11항 또는 제12항에 있어서,
    상기 디스플레이 상에서 상기 펜 장치의 상기 제1 위치에서 제2 위치로의 이동 식별에 기반하여 제2 손 위치, 상기 펜 장치의 상기 제2 위치, 상기 펜 장치의 제2 틸트 정보, 및 상기 디스플레이의 제2 화면 상태를 식별하는 동작;
    상기 제2 팜 위치, 상기 펜 장치의 상기 제2 위치, 상기 제2 틸트 정보, 및 상기 제2 화면 상태에 기반하여 상기 터치 센서 회로에 의해 스캔이 수행될 스캔 영역 중 제2 스캔 영역과 제2 스캔 제외 영역을 식별하는 동작; 및
    상기 터치 센서 회로를 통해 상기 제2 스캔 영역에 대한 스캔을 수행하고 상기 제2 스캔 제외 영역에 대한 스캔을 수행하지 않는 제2 부분 스캔을 수행하는 동작을 포함하는 방법.
  14. 제11항 내지 제13항 중 어느 한 항에 있어서,
    상기 제1 스캔 제외 영역과 상기 제2 스캔 제외 영역은 서로 다른 영역이고,
    상기 디스플레이 화면 상태가 가로 상태인지 세로 상태인지 식별하는 동작을 포함하는 방법.
  15. 명령들을 저장하고 있는 비일시적 저장 매체에 있어서, 상기 명령들은 전자 장치에 의하여 실행될 때에 상기 전자 장치로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은,
    터치 센서 회로를 통해 상기 디스플레이 상의 제1 팜 위치를 식별하고 펜 입력 회로를 통해 펜 장치에 의한 호버 인 상태를 식별하는 동작;
    상기 제1 팜 위치 및 상기 호버 인 상태의 식별에 기반하여 상기 펜 장치의 제1 위치, 상기 펜 장치의 제1 틸트 정보, 및 상기 디스플레이의 제1 화면 상태를 식별하는 동작;
    상기 제1 팜 위치, 상기 펜 장치의 제1 위치, 상기 제1 틸트 정보, 및 상기 제1 화면 상태에 기반하여 상기 터치 센서 회로에 의한 스캔 영역 중 제1 스캔 영역과 제1 스캔 제외 영역을 식별하는 동작; 및
    상기 터치 센서 회로를 통해 상기 제1 스캔 영역에 대한 스캔을 수행하고 상기 제1 스캔 제외 영역에 대한 스캔을 수행하지 않는 제1 부분 스캔을 수행하는 동작을 포함하는 저장 매체.
PCT/KR2024/008021 2023-08-02 2024-06-12 전자 장치 및 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 방법 Pending WO2025028784A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20230100881 2023-08-02
KR10-2023-0100881 2023-08-02
KR1020230125835A KR20250020255A (ko) 2023-08-02 2023-09-20 전자 장치 및 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 방법
KR10-2023-0125835 2023-09-20

Publications (1)

Publication Number Publication Date
WO2025028784A1 true WO2025028784A1 (ko) 2025-02-06

Family

ID=94395118

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2024/008021 Pending WO2025028784A1 (ko) 2023-08-02 2024-06-12 전자 장치 및 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 방법

Country Status (1)

Country Link
WO (1) WO2025028784A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140011594A (ko) * 2012-07-17 2014-01-29 삼성전자주식회사 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기
KR20150080229A (ko) * 2013-12-31 2015-07-09 엘지디스플레이 주식회사 터치 모듈 및 터치검출방법
WO2016040718A2 (en) * 2014-09-12 2016-03-17 Microsoft Technology Licensing, Llc Classification of touch input as being unintended or intended
KR20170053711A (ko) * 2014-09-12 2017-05-16 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 컨텍스트 정보에 기초한 터치 표면에 대한 비활성 영역
KR20190066405A (ko) * 2017-12-05 2019-06-13 엘지디스플레이 주식회사 터치표시장치, 터치시스템, 구동회로 및 구동방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140011594A (ko) * 2012-07-17 2014-01-29 삼성전자주식회사 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기
KR20150080229A (ko) * 2013-12-31 2015-07-09 엘지디스플레이 주식회사 터치 모듈 및 터치검출방법
WO2016040718A2 (en) * 2014-09-12 2016-03-17 Microsoft Technology Licensing, Llc Classification of touch input as being unintended or intended
KR20170053711A (ko) * 2014-09-12 2017-05-16 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 컨텍스트 정보에 기초한 터치 표면에 대한 비활성 영역
KR20190066405A (ko) * 2017-12-05 2019-06-13 엘지디스플레이 주식회사 터치표시장치, 터치시스템, 구동회로 및 구동방법

Similar Documents

Publication Publication Date Title
WO2022030910A1 (ko) 폴딩 각도에 따라 입력 모드를 제어하는 전자 장치 및 그의 방법
WO2022145926A1 (ko) 전자 장치 및 전자 장치의 센서 데이터 교정 방법
WO2022114885A1 (ko) 스타일러스를 이용한 전자 장치의 제어 방법 및 그 방법을 이용하여 스타일러스로부터 입력을 받는 전자 장치
WO2022031048A1 (ko) 전자 장치 및 이의 전자 펜 포인터를 표시하는 방법
WO2025028784A1 (ko) 전자 장치 및 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 방법
WO2023068549A1 (ko) 외부 장치를 이용하는 전자 장치 및 이의 동작 방법
WO2022086071A1 (ko) 전자 펜 장치의 동작을 제어하기 위한 전자 장치, 전자 장치에서의 동작 방법 및 비 일시적 저장 매체
WO2023177059A1 (ko) 전자 장치 및 터치 가이드 방법
WO2022203330A1 (ko) 전자 장치 및 그것의 지문 인식 방법
WO2022050772A1 (ko) 프리뷰 드로잉 방법 및 이를 위한 전자 장치
WO2022086172A1 (ko) 버튼 구조물 및 이를 포함하는 전자 장치
WO2024177337A1 (ko) 엣지 영역의 터치 좌표를 설정하는 전자 장치 및 제어 방법
WO2025234741A1 (ko) 터치 패드를 포함하는 전자 장치, 이의 동작 방법, 및 기록 매체
KR20250020255A (ko) 전자 장치 및 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 방법
WO2025023550A1 (ko) 사용자 입력과 관련된 모드를 변경하는 웨어러블 전자 장치와 이의 동작 방법
WO2024101704A1 (ko) 터치 입력을 식별하는 웨어러블 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2024167174A1 (ko) 컨트롤러 장치 및 웨어러블 전자 장치를 이용한 컨트롤러 장치 추적 방법
WO2023163380A1 (ko) 전자 장치 및 펜 입력 장치와 전자 장치에서 복수의 펜 입력 장치 이용 방법
WO2024214912A1 (ko) 터치 센서를 통해 유체의 접촉을 감지하는 전자 장치
WO2025018608A1 (ko) 팜 터치를 식별하는 전자 장치, 방법, 및 비-일시적 컴퓨터 판독 가능 기록 매체
WO2024019300A1 (ko) 사용자 입력 장치의 부착을 감지하기 위한 전자 장치 및 방법
WO2024063368A1 (ko) 터치 입력을 제어하기 위한 전자 장치 및 방법
WO2025058248A1 (ko) 디지타이저를 포함하는 폴더블 전자 장치
WO2023146142A1 (ko) 전자 장치 및 전자 펜 알림 및 연결 방법
WO2025080018A1 (ko) 액세서리 장치를 포함하는 전자 장치 및 접이 각도를 이용한 운용 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24849355

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2024849355

Country of ref document: EP