WO2018174551A1 - 결제를 수행하는 전자 장치 및 그 동작 방법 - Google Patents
결제를 수행하는 전자 장치 및 그 동작 방법 Download PDFInfo
- Publication number
- WO2018174551A1 WO2018174551A1 PCT/KR2018/003276 KR2018003276W WO2018174551A1 WO 2018174551 A1 WO2018174551 A1 WO 2018174551A1 KR 2018003276 W KR2018003276 W KR 2018003276W WO 2018174551 A1 WO2018174551 A1 WO 2018174551A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- payment
- information
- electronic device
- processor
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping
- G06Q30/0643—Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping graphically representing goods, e.g. 3D product representation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/12—Payment architectures specially adapted for electronic shopping systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/30—Payment architectures, schemes or protocols characterised by the use of specific devices or networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/30—Payment architectures, schemes or protocols characterised by the use of specific devices or networks
- G06Q20/32—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
- G06Q20/321—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices using wearable devices
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/30—Payment architectures, schemes or protocols characterised by the use of specific devices or networks
- G06Q20/32—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
- G06Q20/322—Aspects of commerce using mobile devices [M-devices]
- G06Q20/3223—Realising banking transactions through M-devices
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/30—Payment architectures, schemes or protocols characterised by the use of specific devices or networks
- G06Q20/32—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
- G06Q20/325—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices using wireless networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/30—Payment architectures, schemes or protocols characterised by the use of specific devices or networks
- G06Q20/32—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
- G06Q20/326—Payment applications installed on the mobile devices
- G06Q20/3267—In-app payments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0623—Electronic shopping [e-shopping] by investigating goods or services
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0633—Managing shopping lists, e.g. compiling or processing purchase lists
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/17—Image acquisition using hand-held instruments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0861—Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
Definitions
- Various embodiments of the present disclosure relate to an electronic device for performing a payment and a control method thereof.
- the user may first specify a product to be paid.
- the electronic device may display a payment screen for the specified product and additionally obtain a payment command from the corresponding payment screen.
- the electronic device may additionally request security information such as a password and receive the security information from the user in response thereto.
- security information such as a password
- Various embodiments of the present disclosure relate to an electronic device and a method of operating the same, which are capable of simultaneously acquiring payment target product designation and security information only by touching a displayed object, and may enable product payment in a simpler procedure. .
- an electronic device may include a touch screen, a biometric sensor disposed to overlap with a position of at least a portion of the touch screen, and an object displayed on the touch screen using the biometric sensor.
- a method of controlling an electronic device for making a payment may include obtaining biometric information of a user from an input to an object displayed through the touch screen using a biometric sensor, the touch Receiving a payment command associated with a payment function of the object displayed through a screen, and performing an operation of paying the object using the biometric information according to a payment command for the object.
- an electronic device may include a touch screen, a biosensor disposed to overlap with a position of at least a portion of the touch screen, and the processor, wherein the processor includes an image including at least one object Is displayed on the touch screen, the touch on the first object of the at least one object is detected through the touch screen, and the biometric sensor uses the biometric information obtained from the touch to generate 1 may be set to perform a payment function for a product corresponding to the object.
- an electronic device may include a touch screen, a biosensor disposed to overlap with a position of at least a portion of the touch screen, and the processor, wherein the processor includes an image including at least one object Is displayed on the touch screen, the touch on the first object of the at least one object is detected through the touch screen, and the biometric sensor uses the biometric information obtained from the touch to generate 1 may be set to perform a payment function for a product corresponding to the object.
- a method of controlling an electronic device that performs a payment may include controlling to display an image including at least one object on a touch screen, for a first object among at least one object.
- the method may include detecting a touch and performing a payment function on a product corresponding to the first object by using the biometric information acquired by the biometric sensor from the touch.
- the user may simply and conveniently perform payment using an object purchase function displayed on the display of the electronic device using wireless communication.
- a user may easily and conveniently perform a wireless payment by simplifying a complicated product purchase function, and immediately purchase a desired product based on the collected information by adding a situation awareness function in the payment process. It is possible to provide convenience and to provide the same service to the user without the payment service being dependent on the merchandise seller.
- FIG. 1 illustrates a network environment including an electronic device according to various embodiments of the present disclosure.
- FIG. 2 is a block diagram of an electronic device according to various embodiments of the present disclosure.
- FIG. 3 is a block diagram of a program module according to various embodiments of the present disclosure.
- 4A through 4C are exemplary diagrams of biometric sensors of an electronic device according to various embodiments of the present disclosure.
- FIG. 5 is a diagram for describing a method of detecting a touch input by using a change in capacitance in an electronic device according to various embodiments of the present disclosure.
- FIG. 6 is an exemplary diagram of an electronic device according to various embodiments of the present disclosure.
- FIG. 7 is an exemplary diagram of an electronic device according to various embodiments of the present disclosure.
- 8A to 8F are exemplary diagrams of a configuration for providing a function of paying an object displayed on a touch screen according to various embodiments of the present disclosure.
- 9A and 9B are exemplary diagrams for describing a payment command according to various embodiments of the present disclosure.
- 10A and 10B are exemplary diagrams for describing a payment command according to another embodiment of the present invention.
- 11A to 11B are exemplary diagrams for describing a payment command according to another embodiment of the present invention.
- FIG. 12 is an exemplary diagram for explaining a payment command according to another embodiment of the present invention.
- 13A and 13B are exemplary diagrams for describing a payment command according to another embodiment of the present invention.
- 14A and 14B are exemplary diagrams of a configuration that provides a link associated with an object based on a user's purchase history and the user's information.
- 15A to 15D are exemplary diagrams for describing a bulk payment function according to various embodiments of the present disclosure.
- 16 is a diagram illustrating a payment function by an electronic device according to various embodiments of the present disclosure.
- 17A and 17B are exemplary diagrams of an apparatus for inputting biometric information of a user according to various embodiments of the present disclosure.
- FIG. 18 is an exemplary diagram of an apparatus for entering biometric information according to another embodiment of the present invention.
- 19A to 19C are exemplary diagrams of an apparatus for entering biometric information according to various embodiments of the present disclosure.
- 20A and 20B are diagrams exemplarily illustrating a configuration in which an electronic device provides a payment function on a web site according to various embodiments of the present disclosure.
- FIG. 21 is a diagram illustrating an example of a configuration of payment of an object using an image of a video according to various embodiments of the present disclosure.
- 22 is a flowchart illustrating a method of paying a display object according to various embodiments of the present disclosure.
- FIG. 23 is a flowchart illustrating a method of paying a display object according to various embodiments of the present disclosure.
- 24 is an exemplary block diagram of an electronic device for making a payment according to various embodiments of the present disclosure.
- the expression “device configured to” may mean that the device “can” together with other devices or components.
- processor configured (or configured to) perform A, B, and C may be implemented by executing a dedicated processor (eg, an embedded processor) to perform its operation, or one or more software programs stored in a memory device. It may mean a general purpose processor (eg, a CPU or an application processor) capable of performing the corresponding operations.
- An electronic device may be, for example, a smartphone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, a PMP. It may include at least one of a portable multimedia player, an MP3 player, a medical device, a camera, or a wearable device. Wearable devices may be accessory (e.g. watches, rings, bracelets, anklets, necklaces, eyeglasses, contact lenses, or head-mounted-devices (HMDs), textiles or clothing integrated (e.g.
- HMDs head-mounted-devices
- an electronic device may comprise, for example, a television, a digital video disk (DVD) player, Audio, Refrigerator, Air Conditioner, Cleaner, Oven, Microwave, Washing Machine, Air Purifier, Set Top Box, Home Automation Control Panel, Security Control Panel, Media Box (e.g. Samsung HomeSyncTM, Apple TVTM, or Google TVTM), Game Console (Eg, XboxTM, PlayStationTM), an electronic dictionary, an electronic key, a camcorder, or an electronic picture frame.
- DVD digital video disk
- the electronic device may include a variety of medical devices (e.g., various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Computed tomography (CT), cameras or ultrasounds), navigation devices, global navigation satellite systems (GNSS), event data recorders (EDRs), flight data recorders (FDRs), automotive infotainment devices, ship electronics (E.g., various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Computed tomography (CT), cameras or ultrasounds), navigation devices, global navigation satellite systems (GNSS), event data recorders (EDRs), flight data recorders (FDRs), automotive infotainment devices, ship electronics (E.g.
- various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters
- MRA magnetic resonance angiography
- an electronic device may be a part of a furniture, building / structure or automobile, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, water, electricity, Gas, or a radio wave measuring instrument).
- the electronic device may be flexible or a combination of two or more of the aforementioned various devices.
- Electronic devices according to embodiments of the present disclosure are not limited to the above-described devices.
- the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) that uses an electronic device.
- the electronic device 101 may include a bus 110, a processor 120, a memory 130, an input / output interface 150, a display 160, and a communication interface 170.
- the electronic device 101 may omit at least one of the components or additionally include other components.
- the bus 110 may include circuitry that connects the components 110-170 to each other and transfers communication (eg, control messages or data) between the components.
- the processor 120 may include one or more of a central processing unit, an application processor, or a communication processor (CP).
- the processor 120 may execute, for example, an operation or data processing related to control and / or communication of at least one other component of the electronic device 101.
- the memory 130 may include volatile and / or nonvolatile memory.
- the memory 130 may store, for example, commands or data related to at least one other element of the electronic device 101.
- the memory 130 may store software and / or a program 140.
- the program 140 may include, for example, a kernel 141, middleware 143, an application programming interface (API) 145, an application program (or “application”) 147, or the like.
- API application programming interface
- application or “application”
- At least a portion of kernel 141, middleware 143, or API 145 may be referred to as an operating system.
- the kernel 141 may be a system resource (eg, used to execute an action or function implemented in, for example, other programs (eg, middleware 143, API 145, or application program 147).
- the bus 110, the processor 120, or the memory 130 may be controlled or managed.
- the kernel 141 may provide an interface for controlling or managing system resources by accessing individual components of the electronic device 101 from the middleware 143, the API 145, or the application program 147. Can be.
- the middleware 143 may serve as an intermediary for allowing the API 145 or the application program 147 to communicate with the kernel 141 to exchange data.
- the middleware 143 may process one or more work requests received from the application program 147 according to priority.
- the middleware 143 may use system resources (eg, the bus 110, the processor 120, or the memory 130, etc.) of the electronic device 101 for at least one of the application programs 147. Prioritize and process the one or more work requests.
- the API 145 is an interface for the application 147 to control functions provided by the kernel 141 or the middleware 143.
- the API 145 may include at least the following: file control, window control, image processing, or character control. It can contain one interface or function (eg command).
- the input / output interface 150 may transmit, for example, a command or data input from a user or another external device to other component (s) of the electronic device 101, or other components of the electronic device 101 ( Commands or data received from the device) can be output to the user or other external device.
- Display 160 may be, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or a microelectromechanical system (MEMS) display, or an electronic paper display. It may include.
- the display 160 may display, for example, various types of content (eg, text, images, videos, icons, and / or symbols, etc.) to the user.
- the display 160 may include a touch screen and may receive, for example, a touch, gesture, proximity, or hovering input using an electronic pen or a part of a user's body.
- the communication interface 170 may establish communication between the electronic device 101 and an external device (eg, the first external electronic device 102, the second external electronic device 104, or the server 106). Can be.
- the communication interface 170 may be connected to the network 162 through wireless or wired communication to communicate with an external device (eg, the second external electronic device 104 or the server 106).
- the wireless communication may be, for example, LTE, LTE Advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), wireless broadband (WiBro), or global network (GSM).
- LTE Long Term Evolution
- LTE-A LTE Advance
- CDMA code division multiple access
- WCDMA wideband CDMA
- UMTS universal mobile telecommunications system
- WiBro wireless broadband
- GSM global network
- wireless communication may include, for example, near field communication 164.
- Local area communication may include, for example, wireless fidelity (WiFi), light fidelity (LiFi), Bluetooth, Bluetooth low power (BLE), Zigbee, near field communication (NFC), magnetic secure transmission, and radio. It may include at least one of a frequency (RF) or a body area network (BAN).
- the wireless communication may include GNSS.
- the GNSS may be, for example, a Global Positioning System (GPS), a Global Navigation Satellite System (Glonass), a Beidou Navigation Satellite System (hereinafter referred to as "Beidou”), or a Galileo, the European global satellite-based navigation system.
- GPS Global Positioning System
- Glonass Global Navigation Satellite System
- Beidou Beidou Navigation Satellite System
- Galileo the European global satellite-based navigation system.
- Wired communication may include, for example, at least one of a universal serial bus (USB), a high definition multimedia interface (HDMI), a standard standard232 (RS-232), a power line communication, a plain old telephone service (POTS), and the like.
- the network 162 may comprise a telecommunications network, for example at least one of a computer network (eg, LAN or WAN), the Internet, or a telephone network.
- Each of the first and second external electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101. According to various embodiments of the present disclosure, all or part of operations executed in the electronic device 101 may be executed in another or a plurality of electronic devices (for example, the electronic devices 102 and 104 or the server 106). According to this, when the electronic device 101 needs to perform a function or service automatically or by request, the electronic device 101 may instead execute or execute the function or service by itself, or at least some function associated therewith.
- the other electronic device may request the requested function or The additional function may be executed and the result may be transmitted to the electronic device 101.
- the electronic device 101 may provide the requested function or service by processing the received result as it is or additionally.
- Cloud computing distributed computing, or client-server computing techniques can be used.
- the electronic device 201 may include, for example, all or part of the electronic device 101 illustrated in FIG. 1.
- the electronic device 201 may include one or more processors (eg, an AP) 210, a communication module 220, a subscriber identification module 224, a memory 230, a sensor module 240, an input device 250, and a display ( 260, an interface 270, an audio module 280, a camera module 291, a power management module 295, a battery 296, an indicator 297, and a motor 298.
- processors eg, an AP
- the electronic device 201 may include one or more processors (eg, an AP) 210, a communication module 220, a subscriber identification module 224, a memory 230, a sensor module 240, an input device 250, and a display ( 260, an interface 270, an audio module 280, a camera module 291, a power management module 295, a battery 296, an indicator 297, and a motor 298.
- the processor 210 may control, for example, a plurality of hardware or software components connected to the processor 210 by running an operating system or an application program, and may perform various data processing and operations.
- the processor 210 may be implemented with, for example, a system on chip (SoC).
- SoC system on chip
- the processor 210 may further include a graphic processing unit (GPU) and / or an image signal processor.
- the processor 210 may include at least some of the components illustrated in FIG. 2 (eg, the cellular module 221).
- the processor 210 may load and process instructions or data received from at least one of other components (eg, nonvolatile memory) into the volatile memory, and store the result data in the nonvolatile memory.
- the communication module 220 may include, for example, a cellular module 221, a WiFi module 223, a Bluetooth module 225, a GNSS module 227, an NFC module 228, and an RF module 229. have.
- the cellular module 221 may provide, for example, a voice call, a video call, a text service, or an internet service through a communication network.
- the cellular module 221 may perform identification and authentication of the electronic device 201 in a communication network by using a subscriber identification module (eg, a SIM card) 224.
- the cellular module 221 may perform at least some of the functions that the processor 210 may provide.
- the cellular module 221 may include a communication processor (CP).
- CP communication processor
- at least some (eg, two or more) of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may be one integrated chip. (IC) or in an IC package.
- the RF module 229 may transmit / receive a communication signal (for example, an RF signal), for example.
- the RF module 229 may include, for example, a transceiver, a power amp module (PAM), a frequency filter, a low noise amplifier (LNA), an antenna, or the like.
- PAM power amp module
- LNA low noise amplifier
- At least one of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may transmit and receive an RF signal through a separate RF module.
- Subscriber identification module 224 may include, for example, a card or embedded SIM that includes a subscriber identification module, and may include unique identification information (eg, integrated circuit card identifier (ICCID)) or subscriber information (eg, IMSI). (international mobile subscriber identity)).
- ICCID integrated circuit card identifier
- IMSI international mobile subscriber identity
- the memory 230 may include, for example, an internal memory 232 or an external memory 234.
- the internal memory 232 may include, for example, volatile memory (for example, DRAM, SRAM, or SDRAM), nonvolatile memory (for example, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, flash ROM).
- the flash memory may include at least one of a flash memory, a hard drive, or a solid state drive (SSD)
- the external memory 234 may be a flash drive, for example, a compact flash (CF) or a secure digital (SD). ), Micro-SD, Mini-SD, extreme digital (xD), multi-media card (MMC), memory stick, etc.
- the external memory 234 may be functionally connected to the electronic device 201 through various interfaces. Or physically connected.
- the sensor module 240 may measure, for example, a physical quantity or detect an operation state of the electronic device 201 and convert the measured or detected information into an electrical signal.
- the sensor module 240 includes, for example, a gesture sensor 240A, a gyro sensor 240B, an air pressure sensor 240C, a magnetic sensor 240D, an acceleration sensor 240E, a grip sensor 240F, and a proximity sensor ( 240G), color sensor 240H (e.g., red (green, blue) sensor), biometric sensor 240I, temperature / humidity sensor 240J, illuminance sensor 240K, or UV (ultra violet) ) May include at least one of the sensors 240M.
- sensor module 240 may include, for example, an e-nose sensor, an electromyography (EMG) sensor, an electrocardiogram (EEG) sensor, an electrocardiogram (ECG) sensor, Infrared (IR) sensors, iris sensors and / or fingerprint sensors.
- the sensor module 240 may further include a control circuit for controlling at least one or more sensors belonging therein.
- the electronic device 201 further includes a processor configured to control the sensor module 240 as part of or separately from the processor 210, while the processor 210 is in a sleep state. The sensor module 240 may be controlled.
- the input device 250 may include, for example, a touch panel 252, a (digital) pen sensor 254, a key 256, or an ultrasonic input device 258.
- the touch panel 252 may use at least one of capacitive, resistive, infrared, or ultrasonic methods, for example.
- the touch panel 252 may further include a control circuit.
- the touch panel 252 may further include a tactile layer to provide a tactile response to the user.
- the (digital) pen sensor 254 may be, for example, part of a touch panel or may include a separate recognition sheet.
- the key 256 may include, for example, a physical button, an optical key, or a keypad.
- the ultrasonic input device 258 may detect ultrasonic waves generated by an input tool through a microphone (for example, the microphone 288) and check data corresponding to the detected ultrasonic waves.
- Display 260 may include panel 262, hologram device 264, projector 266, and / or control circuitry to control them.
- the panel 262 may be implemented to be, for example, flexible, transparent, or wearable.
- the panel 262 may be configured with the touch panel 252 and one or more modules.
- panel 262 may include a pressure sensor (or force sensor) capable of measuring the strength of the pressure on the user's touch.
- the pressure sensor may be integrally implemented with the touch panel 252 or one or more sensors separate from the touch panel 252.
- the hologram 264 may show a stereoscopic image in the air by using interference of light.
- the projector 266 may display an image by projecting light onto a screen.
- the screen may be located inside or outside the electronic device 201.
- the interface 270 may include, for example, an HDMI 272, a USB 274, an optical interface 276, or a D-subminiature 278.
- the interface 270 may be included in, for example, the communication interface 170 illustrated in FIG. 1.
- interface 270 may include, for example, a mobile high-definition link (MHL) interface, an SD card / multi-media card (MMC) interface, or an infrared data association (IrDA) compliant interface. have.
- MHL mobile high-definition link
- MMC Secure Digital Card
- IrDA infrared data association
- the audio module 280 may bidirectionally convert, for example, a sound and an electrical signal. At least some components of the audio module 280 may be included in, for example, the input / output interface 145 illustrated in FIG. 1.
- the audio module 280 may process sound information input or output through, for example, a speaker 282, a receiver 284, an earphone 286, a microphone 288, or the like.
- the camera module 291 is, for example, a device capable of capturing still images and moving images. According to one embodiment, the camera module 291 is one or more image sensors (eg, a front sensor or a rear sensor), a lens, and an image signal processor (ISP). Or flash (eg, LED or xenon lamp, etc.).
- the power management module 295 may manage power of the electronic device 201, for example.
- the power management module 295 may include a power management integrated circuit (PMIC), a charger IC, or a battery or fuel gauge.
- the PMIC may have a wired and / or wireless charging scheme.
- the wireless charging method may include, for example, a magnetic resonance method, a magnetic induction method, an electromagnetic wave method, or the like, and may further include additional circuits for wireless charging, such as a coil loop, a resonance circuit, a rectifier, and the like. have.
- the battery gauge may measure, for example, the remaining amount of the battery 296, the voltage, the current, or the temperature during charging.
- the battery 296 may include, for example, a rechargeable cell and / or a solar cell.
- the indicator 297 may display a specific state of the electronic device 201 or a part thereof (for example, the processor 210), for example, a booting state, a message state, or a charging state.
- the motor 298 may convert electrical signals into mechanical vibrations, and may generate vibrations or haptic effects.
- the electronic device 201 may be, for example, a mobile TV supporting device capable of processing media data according to a standard such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or mediaFloTM. GPU).
- DMB digital multimedia broadcasting
- DVD digital video broadcasting
- GPU mediaFloTM.
- Each of the components described in this document may be composed of one or more components, and the names of the corresponding components may vary depending on the type of electronic device.
- the electronic device eg, the electronic device 201) may include some components, omit additional components, or combine some of the components to form a single entity. It is possible to perform the same function of the previous corresponding components.
- the program module 310 may include an operating system and / or various applications running on the operating system for controlling resources related to the electronic device (eg, the electronic device 101).
- the application program 147 may be included.
- the operating system may include, for example, Android TM, iOS TM, Windows TM, Symbian TM, Tizen TM, or Bada TM.
- the program module 310 may include the kernel 320 (eg, the kernel 141), the middleware 330 (eg, the middleware 143), and the API 360 (eg, the API 145).
- At least a portion of the program module 310 may be preloaded on the electronic device or may be an external electronic device (eg, an electronic device ( 102, 104, server 106, etc.).
- the kernel 320 may include, for example, a system resource manager 321 and / or a device driver 323.
- the system resource manager 321 may perform control, allocation, or retrieval of system resources.
- the system resource manager 321 may include a process manager, a memory manager, or a file system manager.
- the device driver 323 may include, for example, a display driver, a camera driver, a Bluetooth driver, a shared memory driver, a USB driver, a keypad driver, a WiFi driver, an audio driver, or an inter-process communication (IPC) driver.
- the middleware 330 may provide various functions through the API 360, for example, to provide functions commonly required by the application 370, or to allow the application 370 to use limited system resources inside the electronic device.
- the middleware 330 may include a runtime library 335, an application manager 341, a window manager 342, a multimedia manager 343, a resource manager 344, a power manager 345, and a database manager ( 346, a package manager 347, a connectivity manager 348, a notification manager 349, a location manager 350, a graphic manager 351, or a security manager 352.
- the runtime library 335 may include, for example, a library module that the compiler uses to add new functionality through the programming language while the application 370 is running.
- the runtime library 335 may perform input / output management, memory management, or arithmetic function processing.
- the application manager 341 may manage, for example, the life cycle of the application 370.
- the window manager 342 may manage GUI resources used on the screen.
- the multimedia manager 343 may identify a format necessary for playing the media files, and may encode or decode the media file using a codec suitable for the format.
- the resource manager 344 may manage space of source code or memory of the application 370.
- the power manager 345 may manage, for example, the capacity or power of the battery and provide power information necessary for the operation of the electronic device.
- the power manager 345 may interwork with a basic input / output system (BIOS).
- the database manager 346 may create, retrieve, or change a database to be used, for example, in the application 370.
- the package manager 347 may manage installation or update of an application distributed in the form of a package file.
- the connectivity manager 348 may manage, for example, a wireless connection.
- the notification manager 349 may provide the user with events such as, for example, an arrival message, an appointment, a proximity notification, and the like.
- the location manager 350 may manage location information of the electronic device, for example.
- the graphic manager 351 may manage, for example, graphic effects to be provided to the user or a user interface related thereto.
- the security manager 352 may provide system security or user authentication, for example.
- the middleware 330 may include a telephony manager for managing a voice or video call function of the electronic device or a middleware module capable of forming a combination of functions of the above-described components. .
- the middleware 330 may provide a module specialized for each type of operating system.
- the middleware 330 may dynamically delete some of the existing components or add new components.
- API 360 is, for example, a set of API programming functions, which may be provided in different configurations depending on the operating system. For example, in the case of Android or iOS, one API set may be provided for each platform, and in Tizen, two or more API sets may be provided for each platform.
- the application 370 is, for example, a home 371, a dialer 372, an SMS / MMS 373, an instant message (IM) 374, a browser 375, a camera 376, an alarm 377. , Contacts 378, voice dials 379, emails 380, calendars 381, media players 382, albums 383, watches 384, health care (e.g., measures exercise or blood sugar, etc.) Or an application for providing environmental information (eg, barometric pressure, humidity, or temperature information).
- the application 370 may include an information exchange application capable of supporting information exchange between the electronic device and the external electronic device.
- the information exchange application may include, for example, a notification relay application for delivering specific information to the external electronic device, or a device management application for managing the external electronic device.
- the notification delivery application may deliver notification information generated by another application of the electronic device to the external electronic device, or receive notification information from the external electronic device and provide the notification information to the user.
- the device management application may be, for example, the ability of an external electronic device to communicate with the electronic device (e.g. turn-on / turn-off of the external electronic device itself (or some component) or the brightness (or resolution) of the display). Control), or install, delete, or update an application running on the external electronic device.
- the application 370 may include an application (eg, a health care application of a mobile medical device) designated according to an attribute of the external electronic device.
- the application 370 may include an application received from an external electronic device.
- At least a portion of the program module 310 may be implemented (eg, executed) in software, firmware, hardware (eg, the processor 210), or a combination of at least two or more thereof, and a module for performing one or more functions; It can include a program, routine, instruction set, or process.
- module includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, components, or circuits.
- the module may be an integrally formed part or a minimum unit or part of performing one or more functions.
- Modules may be implemented mechanically or electronically, for example, application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs), or known or future developments that perform certain operations. It can include a programmable logic device.
- ASIC application-specific integrated circuit
- FPGAs field-programmable gate arrays
- At least a portion of an apparatus (eg, modules or functions thereof) or method (eg, operations) according to various embodiments may be stored on a computer-readable storage medium (eg, memory 130) in the form of a program module. It can be implemented as.
- Computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), optical recording media (e.g. CD-ROM, DVD, magnetic-optical media (e.g. floppy disks), internal memory, etc.
- Instructions may include code generated by a compiler or code executable by an interpreter Modules or program modules according to various embodiments may include at least one or more of the above-described components. In some embodiments, operations performed by a module, a program module, or another component may be executed sequentially, in parallel, repeatedly, or heuristically, or at least, or may include other components. Some operations may be executed in a different order, omitted, or other operations may be added.
- 4A through 4C are exemplary diagrams of biometric sensors of an electronic device according to various embodiments of the present disclosure.
- the electronic device 400 may have a biometric sensor 420 (eg, a fingerprint sensor) configured to recognize biometric information (eg, fingerprint information) on at least a portion of the display 410.
- a biometric sensor 420 eg, a fingerprint sensor
- the biometric sensor 420 is formed in at least a portion of the display 410 (for example, an active area or a black matrix (BM) area) of the display 410 to obtain biometric information of the user using a user input to the display 410. can do.
- BM black matrix
- the electronic device may include a biometric sensor 450 disposed to overlap with a position of at least a portion of the display 440.
- the electronic device may expand the size of the display of the electronic device by arranging the area occupied by the biometric sensor 450 to overlap with at least a portion of the display 440 without a separate physical button.
- the biometric sensor 460 is located at the side or bottom of the electronic device 400 without being limited to a configuration in which the biometric sensor 460 is overlapped with at least a portion of the display 410. You may.
- FIG. 5 is an exemplary diagram illustrating a structure in which an electronic device mounts a biometric sensor according to various embodiments of the present disclosure.
- FIG. 5 is a biometric sensor (eg, FIG. 7) for detecting biometric information of a user on at least a portion of a display 540 of an electronic device (eg, the electronic device 100 of FIG. 1) according to various embodiments of the present disclosure.
- 4 is an example of a mounting structure of the biometric sensor 420 and the fingerprint sensor 430.
- An electronic device according to an embodiment may include a glass 510, a fingerprint sensor 530, a display 540, a fingerprint sensor 580, or a PCB 590.
- the glass 510 may be attached to the fingerprint sensor 530 or the display 540 through an adhesive 520.
- the electronic device may further include structures 550-1 and 550-2 for securing a mounting space of the biometric sensor 580.
- the structures 550-1 and 550-2 may form at least a part of a sealing structure for protecting the fingerprint sensor 580.
- the biometric sensors 530 and 580 may include a partial area of the display 540 (eg, one area or a plurality of areas), or an entire area of the display (eg, an active area of the display). area).
- 530 or 544 may be formed.
- the biometric sensor 580 may be formed on the other side (eg, the back) of the display.
- the biometric sensor 530, 544, or 580 may include, for example, an optical image sensor, an ultrasonic transmission / reception module, or an electrostatic transmission / reception electrode pattern.
- the biometric sensor 530 may be formed between the adhesive layer 520 and the display 540 or between the window glass 510 and the adhesive layer 520.
- the biometric sensor 530 may be formed of an electrostatic transmission / reception electrode pattern, and may be formed of a transparent electrode to increase transmittance of light output from the display 540.
- the biometric sensor 530 may also include an ultrasound type transmission / reception module.
- the biometric sensor 580 may be formed on the other surface of the electronic device.
- An elastic body 570-1 or 570-2 eg, a sponge or the like
- the biometric sensor 580 may include an image sensor.
- the image sensor outputs light (eg, visible light or infrared or ultraviolet light) emitted from a light source (eg, the display 540 or an IR LED) to the user's fingerprint, and light reflected from the user's fingerprint. Can be detected by the image sensor.
- FIG. 6 is an exemplary diagram of an electronic device according to various embodiments of the present disclosure.
- the electronic device may include at least one processor (eg, the first processor 610 or the second processor 620), the memory 630, the display 640, or the at least one sensor 650. It may include.
- the first processor 610 may control overall driving of the electronic device.
- the second processor 620 eg, a low power processor or a sensor HUB
- the second processor 620 does not wake up the first processor 610 when the electronic device is in a sleep state, and the at least one sensor 650.
- the second processor 620 may control the biometric sensor 651, the touch sensor 652, or the display panel 640 independently of the first processor 610. .
- the electronic device may include a memory 630.
- the memory 630 may include a general area for storing a user application or the like, or a security area for storing security sensitive information such as information for fingerprint sensing.
- the display module 640 provides display information by controlling a display panel 642 including a plurality of pixels and at least some of the plurality of pixels included in the display panel 642.
- the display device may include a display driving module (eg, a display driver IC (DDI 641)) configured to be configured to be configured to be connected to the display module.
- the sensor 650 may apply a fingerprint of a user to the display module 640.
- a biometric sensor 651 for example, a fingerprint sensor
- a touch sensor 652 for sensing a user's touch on the display module 640.
- the biometric sensor may be used.
- 651 is not only an optical fingerprint sensor (eg, an image sensor) using light output from the display module, but also various methods such as an electrostatic fingerprint sensor and an ultrasonic fingerprint sensor. It can detect biological information of the user.
- the at least one sensor 650 may drive a plurality of pixels included in the display panel 642 through the display driving module 641 in response to a user input.
- the at least one sensor 650 may control the display panel 642 as necessary.
- the biometric sensor 651 may use the light emitted from the display by controlling the display panel 642 to obtain biometric information of the user.
- FIG. 7 is an exemplary diagram of an electronic device according to various embodiments of the present disclosure.
- the electronic device may include a plurality of controllers (for example, the first control unit 711, the second control unit 721, the third control unit 743, the fourth control unit 753, or the fifth control unit 760).
- Each controller may be included in a module (eg, a first processor 710, a second processor 720, a DDI 741, or a biometric sensor 751, etc.) included in the electronic device. May be included.
- the electronic device may control the first processor 710 using the first control unit 711 and control the second processor 720 using the second control unit 721.
- the electronic device may control a module including the third control unit 743 and the fourth control unit 753 using the third control unit 743 and the fourth control unit 753.
- modules of the electronic device may be controlled using one controller.
- the electronic device may include a plurality of controllers (eg, the first control unit 711, the second control unit 721, and the third control unit 743) using a main controller (eg, the fifth control unit 760).
- the fourth control unit 753 may be controlled.
- the electronic device may designate a main controller and control other controllers by the designated main controller.
- the electronic device may change / designate the main controller from the fifth controller 760 to the first controller 711 and control other controllers by using the designated main controller.
- the electronic device modules may be directly controlled by using one controller.
- the electronic device may include the second processor 720, the memory 730, the display 740, and / or the at least one sensor using the first controller 711 included in the first processor 710. 750) and the like.
- the display 740 and the at least one sensor 750 may be controlled by one controller.
- the display 740 and the sensor 750 can be controlled using a single controller, and the biometric information of the user can be easily obtained. can do.
- 8A to 8F are exemplary diagrams of a configuration for providing a function of paying an object displayed on a touch screen according to various embodiments of the present disclosure.
- the processor of the electronic device may perform payment for an object displayed on a web page while executing a web browser application program.
- a user uses a two-step operation of press and confirm on an electronic device to pay for an object displayed on a web page. Payment can be performed.
- a processor eg, the processor 120 of FIG. 1 of an electronic device may control to display a character 810 or an image 820 on a web page 800 displayed through a touch screen.
- the image 820 displayed through the touch screen may include at least one payable object, for example, item A 821 and item B 822.
- a processor eg, the processor 120 of FIG. 1 may be used. ) May detect the touch.
- the processor eg, the processor 120 of FIG.
- biometric information eg, fingerprint information
- biometric sensor may acquire biometric information (eg, fingerprint information) of the user through a user's touch input using a biometric sensor, and authenticate the user using the obtained biometric information.
- payment for a product associated with the selected object may be performed.
- the processor obtains information on the selection of the object included in the image based on the user's touch input, and additional touch input for inputting the user's biometric information to pay for the object from the user 830,
- the biometric information may be obtained from the additional touch input.
- the processor when a touch input of the user 830 is detected, the processor may display on the display that an object corresponding to the touch input is recognized.
- the processor when the processor senses a touch input for selecting the item A 821 from the user 830, the processor may display on the display that the item A 821 is selected.
- the processor may provide an indication 823 indicating that item A 821 is being selected around item A 821 as shown in FIG. 8B.
- the display 823 of FIG. 8B is exemplary only, and the processor may display that the object is selected in various ways such as displaying an outline of the object, and the example of FIG. 8B does not limit the content of the present invention. Referring to FIG.
- payment information regarding a product associated with the selected object may be provided through a pop-up window 840.
- the pop-up window 840 may include a "Confirm" button 850.
- the processor for example, the processor 120 of FIG. 1
- the payment function for the corresponding product may be provided.
- the payment command may include all operations or inputs for recognizing the user's intention of payment after the user's biometric information is obtained.
- the processor may search for a site that sells a product corresponding to an object by using preset criteria, and select one of the sites based on the search result and the preset criteria.
- the processor may display a payment interface for the selected site through the pop-up window 840.
- the preset criteria may be variously set, such as a price of a product corresponding to an object, a user setting, or a reliability of a site.
- the processor (for example, the processor 120 of FIG. 1) uses at least one of tag information set in a web page or payment information and sales information of an object registered in tag information of an object included in the web page. To create a graphical user interface and display it on a touch screen. Referring to FIG.
- the user 860 may perform a payment command for applying a touch input to the “Confirm” button 850 included in the pop-up window 840 through an input such as a touch input, and the electronic device makes a payment.
- payment of a product related to an object may be performed using the acquired biometric information.
- a notification 870 having a popup window or the like may inform the user that the payment is completed.
- a payment function for a product corresponding to an object may be performed using only biometric information without a separate payment command.
- the processor eg, the processor 120 of FIG. 1 controls to display an image including at least one object on the touch screen, and through the touch screen, among the at least one object.
- the touch on the first object may be detected, and the biometric sensor may be set to perform a payment function for a product corresponding to the first object by using the biometric information obtained from the touch.
- the electronic device may specify a product that the user intends to purchase by analyzing the text 810 included in the web page 800 that the user is using.
- the processor of the electronic device eg, the processor 120 of FIG. 1 tracks the movement of the pupil of the user through the front camera so that the web page 800 that the user is interested in before the user selects an object may be observed. A specific area of) can be detected, and a product desired to be purchased by the user can be specified and provided to the user based on the information in the detected area.
- a payment interface of a corresponding site may be displayed when a user selects by providing a plurality of sites that can purchase a product corresponding to an object.
- the processor may preset a site for selling a product corresponding to an object. You can search using. Unlike FIG. 8C, the processor may display a plurality of sites 890 according to a search result, and receive a user's touch input for any one of the displayed plurality of sites. According to an embodiment, the processor may display a payment interface for a selected site in a popup window 880 using a user's touch input.
- the preset criteria for the processor to search and display the site may be variously set, such as a price of a product corresponding to the object, a user setting, or a reliability of the site.
- 9A and 9B are exemplary diagrams for describing a payment command according to various embodiments of the present disclosure.
- the processor of the electronic device may recognize the aforementioned payment command in various manners instead of a user's touch input.
- the electronic device may detect a user's intention of payment by detecting a specific motion input together with the user's biometric authentication as a payment command, and may proceed with the payment for the object.
- the processor may use the biometric sensor to display the biometric information of the user from the user's touch input.
- biometric information Eg, fingerprint information
- FIG. 9B after a processor (eg, the processor 120 of FIG. 1) detects a touch input from a user and authenticates the biometric information, the user 930 may make a thumb on the object 910.
- the electronic device may recognize a payment command of the user and provide a payment function of a product associated with the selected object.
- 10A and 10B are exemplary diagrams for describing a payment command according to another embodiment of the present invention.
- the electronic device may determine the motion pattern of the electronic device. It can be determined by a payment order.
- a processor eg, the processor 120 of FIG. 1
- Biometric information for example fingerprint information
- the processor acquires fingerprint information and recognizes a predetermined motion pattern of the electronic device 1030 by the user, for example, a motion of shaking several times, as shown in FIG. 10B.
- the determined motion pattern may be recognized as a payment command for a product associated with the object, and a payment function for the corresponding product may be provided.
- 11A to 11B are exemplary diagrams for describing a payment command according to another embodiment of the present invention.
- the electronic device recognizes a predetermined motion pattern (for example, an operation of inverting and reverting from the fingerprint recognition state) of the electronic device recognized by the sensor, thereby confirming the user's payment intention and providing a product.
- a predetermined motion pattern for example, an operation of inverting and reverting from the fingerprint recognition state
- the processor eg, FIG. 1
- the processor 120 may obtain biometric information, for example, fingerprint information, from an input of the user 1120.
- the user may perform an operation of inverting the electronic device and returning it again as shown in FIG.
- the operation of inverting and returning the electronic device may be stored in the memory in a predetermined motion pattern, and provide a payment function for a product related to the object 1110 using a payment command according to the predetermined motion pattern.
- the processor eg, the processor 120 of FIG. 1
- the processor may use the alarm 1130 displayed on the touch screen to provide the user with the product. It can inform that the payment is completed.
- FIG. 12 is an exemplary diagram for explaining a payment command according to another embodiment of the present invention.
- the electronic device may receive a fingerprint input from a fingerprint recognition portion of the electronic device to authenticate a user, and thereafter, may recognize a payment command for a product in response to a drag operation of the user.
- the user 1220 may first apply a touch input to an image including the object 1210.
- the processor eg, the processor 120 of FIG. 1
- the processor may detect a touch on the object 1210 through the touch screen, and use the biometric information acquired from the touch by the biometric sensor to detect the object. It may be to perform a payment function for the product corresponding to the.
- the processor (for example, the processor 120 of FIG. 1) detects a drag input by a user, and recognizes a detected drag input as a payment command and pays a product related to an object with biometric information obtained. You can do that.
- 13A and 13B are exemplary diagrams for describing a payment command according to another embodiment of the present invention.
- the processor of the electronic device may acquire biometric information of the user using a biometric sensor disposed on the side of the electronic device as shown in FIG. 4C. Can be controlled.
- the processor (for example, the processor 120 of FIG. 1) not only controls to acquire the biometric information of the user using the biometric sensor disposed in front of FIG. 13A, but also touch-specification of the user's electronic device as shown in FIG. 13B.
- input selection for example, 1320 of FIG. 13B
- a pressure input operation of selecting an object for which payment is intended the input 1320 of the biometric sensor on both sides (or one side) of the user is confirmed. You can check the payment intent and perform payment on the goods related to the object.
- 14A and 14B are exemplary diagrams of a configuration that provides a link associated with an object based on a user's purchase history and the user's information.
- the electronic device may use the aforementioned payment by utilizing a user's previous purchase history or purchase attempt history stored in an internal memory of the electronic device or an external server.
- a processor eg, the processor 120 of FIG. 1
- the electronic device uses the stored user's purchase history or purchase attempt history information to provide the user with the purchase price of the specific product.
- a web page 1420 or a purchase method or product information may be selected and provided.
- an external server interworking with the electronic device may collect payment history or information of attempted payment of users transmitted from the electronic device, and make a classification by age, gender, region, or propensity. Can be stored.
- the server displays the age of the specific user on the electronic device.
- information for confirming a purchase may be specified without being limited to an internal classification for information on which payment is made or attempted to be paid by an external server interworking with the electronic device.
- An unspecified number of users can use the information registered or created by themselves.
- the unspecified user may collect product information recorded in various storage devices or various places on the Internet, divide it into a purchase or purchase attempt record, and recommend one or more items in comparison with the product information that the user intends to purchase.
- the user can send information to the server through the evaluation according to the degree corresponding to his purchase intention, which can be used again to determine the purchase intention of another user.
- a recommendation expected for a user's purchase may be provided by referring to the most-purchased order formed by an unspecified number, but if it is different from the user's purchase intention, the weight of the recommendation provided to another user may be changed by evaluating it. have.
- the frequency of the user evaluating the degree of conformity with the purchase intention can be sent to the server and stored in a separate classification based on the information.
- 15A to 15D are exemplary diagrams for describing a bulk payment function according to various embodiments of the present disclosure.
- the electronic device may store information about goods collected by the user and perform payment on the goods at once.
- a processor eg, the processor 120 of FIG. 1
- the user 1520 may move the object 1510 to a portion of the screen area 1530 that is predetermined by using a drag operation.
- the processor eg, the processor 120 of FIG. 1
- an operation of dragging a second object 1511 other than the first object 1540 stored in the predetermined part of the screen area 1530 to the predetermined part of the screen area 1530 may be performed.
- the second object 1511 may also be stored in the predetermined screen area 1530, and the processor (eg, the processor 120 of FIG. 1) may store information about the second object 1511 in a memory.
- the third object 1512 may be stored by dragging the third object 1512 into a predetermined portion of the screen area 1530 through the same process, and the processor (eg, the processor 120 of FIG. 1) may store the related information in the memory.
- the processor eg, the processor 120 of FIG.
- the payment screen may be displayed so that the products related to the third object may be collectively settled, and payment for the products related to the first to third objects may be made based on the payment command.
- 16 is a diagram illustrating a payment function by an electronic device according to various embodiments of the present disclosure.
- the processor when the camera application is executed and at least one object is displayed through the touch screen, the processor (for example, the processor 120 of FIG. 1) may input an input of the at least one displayed object. This received object can be recognized.
- a processor for example, the processor 120 of FIG. 1 executes a camera application
- a product 1610 related to an object may be photographed using a camera.
- the user 1620 may apply an input to pay for the product 1610 associated with the object 1630.
- Subsequent processes are performed in the same manner as described above, and payment information related to the product 1610 is displayed by the processor (for example, the processor 120 of FIG. 1), a payment command is received from the user, and the processor (for example, When the processor 120 of FIG. 1 recognizes the payment command, it may provide a payment function for a product.
- 17A and 17B are exemplary diagrams of an apparatus for inputting biometric information of a user according to various embodiments of the present disclosure.
- the electronic device may provide a payment function in connection with various input devices such as a mouse that may acquire biometric information of the user.
- a mouse button (or a mouse button) may be placed on the image, video, or text.
- a payment function for a product related to an image, a video, and a text may be provided.
- the mouse 1730 may include a biometric sensor 1750 for acquiring biometric information from the user 1740.
- a user searches a screen displayed on an electronic device
- a user finds a product related to an object to be purchased and clicks the left and right buttons of the mouse on the object to obtain information related to the object.
- the web browser and the account are transferred to another electronic device linked with the electronic device, and the electronic device obtains payment information associated with the selected object from the memory and displays it on the screen, and then exists only on the screen currently being used by using only the fingerprint recognition operation of the user. It can provide a payment function of the goods to be.
- FIG. 18 is an exemplary diagram of an apparatus for entering biometric information according to another embodiment of the present invention.
- a user purchases using one or more input devices capable of sensing other than a mouse or a biometric sensor (for example, a fingerprint sensor) listed in the purchase and specifying operation.
- the intention of the can be confirmed. That is, the intention may be confirmed by combining the input fingerprint and the purchase intention confirmed by the voice command of the user.
- a smart watch 1810 having a biometric sensor capable of recognizing biometric information of the user 1820 may be provided. It may be linked with a user's electronic device, a notebook or a personal computer, and may recognize a user's biometric information or a payment command through a biometric sensor included in a smart watch and provide a payment function for an object.
- 19A to 19C are exemplary diagrams of an apparatus for inputting biometric information according to various embodiments of the present disclosure.
- the personalized payment method described above may be equally applied to a personal computer such as a notebook computer having a biometric sensor.
- a personal computer such as a notebook computer having a biometric sensor.
- the user's biometric information and payment command through the mouse pad 1920 included in the notebook 1910 of FIG. 19A, the touch pad 1930 of FIG. 19B, and the touch pad 1940 included of the remote controller of FIG. 19C. Recognizing this, it is possible to provide a payment function for a product corresponding to the object.
- the touch pad which is functionally connected to the electronic device, may have a built-in biometric sensor.
- the electronic device recognizes a user's fingerprint in response to a user's pressure input, and at the same time, the electronic device may have a mouse pointer. Can distinguish objects such as an image, video, and text that are currently instructed.
- 20A and 20B are diagrams exemplarily illustrating a configuration in which an electronic device provides a payment function on a web site according to various embodiments of the present disclosure.
- a processor (eg, the processor 120 of FIG. 1) according to various embodiments of the present disclosure may distinguish and extract a product associated with an object 2020 indicated by a pointer 2010.
- a combination of purchase point information for purchasing an extracted product and personal information of a user may be combined to configure a product purchase related page 2030 in a popup window or the like and may provide the same to a user. have.
- the electronic device may then perform the actual payment for the product in response to the user's payment command.
- the user may perform payment quickly, accurately, and conveniently by using a user's preferred or system recommended item selling site using only the user's payment means without being dependent on a specific purchase site. .
- FIG. 21 is a diagram illustrating an example of a configuration of payment of an object using an image of a video according to various embodiments of the present disclosure.
- payment information for at least one object may be stored in the video based on time information and location information of the video file.
- the processor of the electronic device eg, the processor 120 of FIG. 1 or an external server may be connected to the first object 2110 and the second object 2120 included in the image of the specific point 2130 of the video. Information about the video can be stored in the video.
- the processor eg, the processor 120 of FIG. 1 may detect the time information or the image of the selected object.
- the object may be recognized based on at least one piece of location information of, and a payment function for the object may be provided based on the above description.
- 22 is a flowchart illustrating a method of paying a display object according to various embodiments of the present disclosure.
- a processor may display an object displayed on a touch screen using a biometric sensor.
- the biometric information of the user may be obtained from an input for.
- the processor eg, the processor 120 of FIG. 1 may receive a payment command associated with a payment function of a product corresponding to an object displayed through the touch screen in operation 2220.
- the processor eg, the processor 120 of FIG. 1 may perform an operation of paying a product corresponding to the object using biometric information according to a payment command for the product corresponding to the object.
- a processor eg, the processor 120 of FIG.
- the processor (eg, the processor 120 of FIG. 1) receives payment information about the object from a memory or an external server storing payment information about a product corresponding to the object. And performing a payment function for a product corresponding to the object by using the received payment information.
- the processor when it is determined that the electronic device moves in a predetermined motion pattern through the at least one sensor, the processor (eg, the processor 120 of FIG. 1) moves the motion of the electronic device.
- the operation may include determining a pattern as the payment command.
- the processor eg, the processor 120 of FIG. 1 may include metadata about a purchase history of a product corresponding to the object of the user or information of the user (eg, a shipping address and a contact number). Based on at least one of payment information, the method may include providing information (for example, a product name, a price, a selling place, and URL information) of a product corresponding to at least one other object related to the object.
- the processor eg, the processor 120 of FIG. 1) receives the input of dragging the object to a predetermined portion of the screen area, and receives the processor (eg, the processor of FIG. 1).
- the processor 120 displays the object on the predetermined portion of the screen area via a touch screen, and a predetermined operation is received on the portion of the screen area and a payment command associated with a payment function of a product corresponding to the object is displayed. If received, it may include the operation of paying the goods corresponding to the object.
- the processor eg, the processor 120 of FIG. 1
- the processor may display a video including the object through a touch screen, and the user may view the video including the object.
- the method may include recognizing the object stored in association with time information and location information of the video.
- the processor eg, the processor 120 of FIG.
- 23 is a flowchart illustrating a method of performing a payment, according to various embodiments of the present disclosure.
- the processor may control to display an image including at least one object on the touch screen.
- the processor eg, the processor 120 of FIG. 1 may detect a touch on the first object of the at least one object through the touch screen.
- the processor eg, the processor 120 of FIG. 1 may perform a payment function for a product corresponding to the first object by using the biometric information acquired by the biometric sensor from the touch.
- a processor eg, the processor 120 of FIG. 1 displays an image including a first object on the touch screen, from the image based on an input to the object.
- the processor may receive payment information about a product corresponding to the first object, and payment information about a product corresponding to the first object. And receiving from a memory to be stored or an external server, and performing a payment function for a product corresponding to the first object by using the received payment information.
- the processor when it is determined that the electronic device moves in a predetermined motion pattern through the at least one sensor, the processor (eg, the processor 120 of FIG. 1) moves the motion of the electronic device.
- the operation may include determining a pattern as the payment command.
- the processor may be configured based on at least one of metadata about the object purchase history of the user or information corresponding to the user.
- the method may include providing information on at least one second object related to the object.
- the processor eg, the processor 120 of FIG. 1 receives the input for dragging the first object to a portion of a predetermined screen area, and receives the processor (eg, FIG. 1).
- the processor 120 displays the first object on the predetermined part of the screen area through a touch screen, and a predetermined operation is received on the partial screen area and a payment command associated with a payment function of the object is displayed.
- the method may include providing a payment function for a product corresponding to the first object.
- the processor eg, the processor 120 of FIG. 1 may display a video including the first object through a touch screen, and the video including the first object.
- the method may include recognizing the first object stored in association with time information and location information of the video according to a user's input to.
- the processor eg, the processor 120 of FIG. 1 may input an input of the at least one displayed object when a camera application is executed to display at least one object through the touch screen.
- the operation of recognizing the received first object may be included.
- a detailed description of the control method of the electronic device that performs the payment is the same as the content of the electronic device that performs the payment, and thus will be omitted.
- 24 is an exemplary block diagram of an electronic device for making a payment according to various embodiments of the present disclosure.
- An electronic device may include a sensor input module 2410, a payment engine 2420, a user interface generation module 2430, a payment module 2440, a user database 2450, and a product as shown in the following figure.
- the database 2460 and the product providing database 2470 may be configured. Each of these modules may be implemented in software or in hardware.
- the sensor input module 2410 is a module that receives a signal from the outside of the electronic device and may be a physical sensor such as a touch sensor, a pressure sensor, a fingerprint sensor, a geomagnetic sensor, an acceleration sensor, an air pressure sensor, a pressure sensor, or a camera.
- the sensor input module 2410 receives an input external to the electronic device and transmits the input to the payment engine 2420.
- the sensor input module 2410 may detect a user's touch input or force input, distinguish the coordinates on the touch screen to which the pressure input is applied, and at this time, input the fingerprint sensor input together with the payment engine 2420. ) Can be delivered.
- the payment engine 2420 controls the payment process of the product corresponding to the overall object.
- the control module 2421, the user information extraction module 2422, and the product It may be configured as an information extraction module 2423.
- the payment engine 2420 transfers the sensor input information received from the sensor input module 2410 and the context related information displayed on the current screen to the user information extraction module 2422 and the product information extraction module 2423.
- information necessary for payment of a product corresponding to the object may be extracted from each connected database and transferred to the user interface generation module 2430.
- the payment engine 2420 may receive the fingerprint input information and the touch coordinate position from the sensor input module 2410.
- the payment engine 2420 may transfer the received fingerprint input information to the user information extraction module 2422, and the user information extraction module 2423 may transmit fingerprint information received from the user to an internal or external location of the electronic device. Recognizes a user compared to the user database 2450 and reads at least one or more of payment related information of the user, such as user name, contact information, shipping information, card usage history information, and preferred place of purchase. Can come.
- the payment engine 2420 may receive the touch input coordinates along with the screen information at the time when the pressure is applied and transmit the received coordinates to the product information extraction module 2423.
- the product information extraction module 2423 may recognize an object selected by the user based on the input coordinates through an image recognition method, an image comparison method, a character recognition method, and the like.
- the information may be retrieved from the product database 2460 to read purchase related information such as price information and vendor information of the corresponding product.
- the product information extraction module 2423 may receive content information displayed on the screen at the time of input and read additional information such as tag information existing in the corresponding content to distinguish purchase related information. For example, when a user selects a photo, product-related information may be read from various information existing in a meta tag of the photo.
- the payment engine 2420 may compare the read product information with the registered product database 2460, and may read purchase related information such as price information and vendor information of the corresponding product.
- purchase related information such as price information and vendor information of the corresponding product.
- the object recognizer 2424 of the user information extraction module 2423 recognizes an object included in the web page, and the tag extractor 2425 ) May extract product related information about a product corresponding to the object from additional information about the object or tag information, and through this, it may read purchase related information such as price information and retailer information of the corresponding product.
- the user interface generation module 2430 is a module for configuring a screen using information delivered by the payment engine 2420, and a module for primarily generating a screen provided to a user through an actual display. to be.
- the user interface generation module 2430 may dynamically generate a user interface screen including specific product information and purchase information thereof in the payment engine 2420.
- the user interface generation module 2430 may display similar information related to specific product information on the screen together with the payment engine 2420 through the memory.
- the user interface generation module 2430 may display basic information related to payment, such as shipping information and contact information, on the screen by merging the product information.
- the user interface generation module 2430 may configure the integrated user interface by arranging the information received from the payment engine 2420 in one of the stored basic templates to construct a screen. By splitting the screen, the payment page and the product information page can be divided to provide a separate user interface. In the case of a separate user interface, the part displaying the product information may use the product information page provided by the product provider as it is, and in the case of the settlement page, the electronic device may display the product information as a page that can be linked with the corresponding product providing page. Information can be obtained from the page and configured.
- the user interface generation module 2430 may configure a screen by using information received from the payment engine 2420.
- the user interface generation module 2430 configures the user interface by using the product information corresponding to the object specified by the payment engine 2420 and the information of the place of purchase from which the user can purchase the third party (3rd party).
- the page registered by the party can be called and displayed on the upper part of the user interface, and the actual payment can be performed through the payment module.
- the electronic device may log in to the merchandise distributor using the electronic device information or the user account information stored in the electronic device.
- the payment module 2420 according to an embodiment may be a module for performing an actual payment.
- the payment module 2420 may perform an actual payment by using payment related information stored in a secure area in response to a payment approval input of a user.
- the payment module 2440 may include a user interface configured to enable purchase of a corresponding product through a user interface generation module 2430, which provides product information presented by the payment engine 2420 to process payment of a product. It can be provided through, and can be attempted MST / NFC payment attempts by obtaining stored payment information.
- the payment operation intended by the user may be a payment linked with an external device by sending the payment information to the external device using the stored payment information, and the payment to view the product information page generated by the user interface generation module to purchase the payment information. Confirm can be detected to provide a corresponding product purchase operation.
- the payment module 2440 may request the user interface generation module 2430 for a user interface linked to a payment process.
- the user interface generation module 2430 may generate a page including information of a payment in progress state or generate a completed web page and provide it to the user according to a request of the payment module 2440.
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- Economics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Security & Cryptography (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Social Psychology (AREA)
- Biomedical Technology (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
터치 입력을 처리하는 전자 장치가 개시된다. 전자 장치는, 터치 스크린, 상기 터치 스크린의 적어도 일부의 위치와 중첩되어 배치된 생체 센서, 및 상기 생체 센서를 이용하여, 상기 터치 스크린을 통해 디스플레이되는 오브젝트에 대한 입력으로부터 사용자의 생체 정보를 획득하고, 상기 오브젝트에 대한 결제 기능과 연관되는 결제 명령을 수신하고, 상기 결제 명령에 따라, 상기 생체 정보를 이용하여 상기 오브젝트에 대응하는 상품에 대한 결제 기능을 수행하는 프로세서를 포함할 수 있다. 그 밖에 다양한 실시예가 제공될 수 있다.
Description
본 발명의 다양한 실시예는 결제를 수행하는 전자 장치 및 그 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 제품들이 개발 및 보급되고 있다. 특히, 최근에는 스마트폰, 테블릿 PC 등과 같이 다양한 기능을 가지는 휴대용 전자 장치의 보급이 확대되고 있다.
또한, 최근에는 이러한 휴대용 전자 장치에서 제공하는 다양한 보안 수단을 이용하여 사용자를 인증하고, 인증된 사용자에게 제공할 수 있는 다양한 서비스에 대한 공급이 증가하고 있다.
사용자는, 전자 장치를 이용하여 결제를 수행하고자 하는 경우에, 우선 결제하고자 하는 상품을 지정할 수 있다. 전자 장치는, 지정된 상품에 대한 결제 화면을 표시하고, 해당 결제 화면에서 추가적으로 결제 명령을 획득할 수 있다. 이 경우, 전자 장치는, 추가적으로 비밀번호 등과 같은 보안 정보를 요청하고, 이에 대응하여 보안 정보를 사용자로부터 수신할 수 있다. 하지만, 상술한 결제 방식은, 결제 절차가 다수이어서 결제 절차에 익숙하지 못한 사용자들은 결제에 어려움을 가질 수 있다.
본 발명의 다양한 실시예는, 표시되는 오브젝트의 터치만으로, 결제 대상 상품 지정 및 보안 정보를 동시에 획득할 수 있는 전자 장치 및 그 동작 방법에 관한 것으로, 보다 단순한 절차로 상품 결제를 가능하게 할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치는, 터치 스크린, 상기 터치 스크린의 적어도 일부의 위치와 중첩되어 배치된 생체 센서, 및 상기 생체 센서를 이용하여, 상기 터치 스크린을 통해 디스플레이되는 오브젝트에 대한 입력으로부터 사용자의 생체 정보를 획득하고, 상기 오브젝트에 대한 결제 기능과 연관되는 결제 명령을 수신하고, 상기 결제 명령에 따라, 상기 생체 정보를 이용하여 상기 오브젝트에 대응하는 상품에 대한 결제 기능을 수행하는 프로세서를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 결제를 수행하는 전자 장치를 제어하는 방법은, 생체 센서를 이용하여, 상기 터치 스크린을 통해 디스플레이되는 오브젝트에 대한 입력으로부터 사용자의 생체 정보를 획득하는 동작, 상기 터치 스크린을 통해 디스플레이되는 상기 오브젝트의 결제 기능과 연관되는 결제 명령을 수신하는 동작, 및 상기 오브젝트에 대한 결제 명령에 따라, 상기 생체 정보를 이용하여 상기 오브젝트를 결제하는 동작을 수행하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른, 전자 장치는, 터치 스크린, 상기 터치 스크린의 적어도 일부의 위치와 중첩되어 배치된 생체 센서, 및 프로세서를 포함하고, 상기 프로세서는, 적어도 하나의 오브젝트가 포함된 이미지를 상기 터치 스크린 상에 표시하도록 제어하고, 상기 터치 스크린을 통하여, 상기 적어도 하나의 오브젝트 중 제 1 오브젝트에 대한 터치를 검출하고, 상기 생체 센서가 상기 터치로부터 획득한 생체 정보를 이용하여, 상기 제 1 오브젝트에 대응하는 상품에 대한 결제 기능을 수행하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른, 전자 장치는, 터치 스크린, 상기 터치 스크린의 적어도 일부의 위치와 중첩되어 배치된 생체 센서, 및 프로세서를 포함하고, 상기 프로세서는, 적어도 하나의 오브젝트가 포함된 이미지를 상기 터치 스크린 상에 표시하도록 제어하고, 상기 터치 스크린을 통하여, 상기 적어도 하나의 오브젝트 중 제 1 오브젝트에 대한 터치를 검출하고, 상기 생체 센서가 상기 터치로부터 획득한 생체 정보를 이용하여, 상기 제 1 오브젝트에 대응하는 상품에 대한 결제 기능을 수행하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른, 결제를 수행하는 전자 장치를 제어하는 방법은, 적어도 하나의 오브젝트가 포함된 이미지를 터치 스크린 상에 표시하도록 제어하는 동작, 적어도 하나의 오브젝트 중 제 1 오브젝트에 대한 터치를 검출하는 동작, 생체 센서가 터치로부터 획득한 생체 정보를 이용하여, 상기 제 1 오브젝트에 대응하는 상품에 대한 결제 기능을 수행하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 사용자는 전자 장치의 디스플레이에 표시된 오브젝트 구매 기능을 간단하고 편리하게 무선 통신을 이용하여 결제를 수행할 수 있다. 본 발명의 다양한 실시예는 사용자는 복잡한 제품 구매 기능을 단순화하여 간단하고 편리하게 무선 결제를 수행할 수 있으며, 결제 과정에서 상황 인지 기능을 추가함으로써 취합된 정보를 기반으로 사용자가 원하는 상품을 즉시 구매하는 편리성을 제공할 수 있으며, 결제 서비스가 상품 판매처에 종속되지 않으면서 사용자에게 동일한 서비스를 제공해 줄 수 있다.
도 1은 본 발명의 다양한 실시예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 2는 본 발명의 다양한 실시예에 따른 전자 장치의 블록도이다.
도 3은 본 발명의 다양한 실시예에 따른 프로그램 모듈의 블록도이다.
도 4a 내지 도 4c는 본 발명의 다양한 실시예에 따른 전자 장치의 생체 센서에 대한 예시적인 도면이다.
도 5는 본 발명의 다양한 실시예에 따른 전자 장치에서 정전 용량 변화를 이용하여 터치 입력을 검출하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 다양한 실시예에 따른, 전자 장치의 예시적인 도면이다.
도 7은 본 발명의 다양한 실시예에 따른 전자 장치의 예시적인 도면이다.
도 8a 내지 도 8f는 본 발명의 다양한 실시예에 따른, 터치 스크린에 디스플레이되는 오브젝트를 결제하는 기능을 제공하는 구성에 대한 예시적인 도면이다.
도 9a 및 도 9b는 본 발명의 다양한 실시예에 따른 결제 명령을 설명하기 위한 예시적인 도면이다.
도 10a 및 도 10b는 본 발명의 또 다른 실시예에 따른 결제 명령을 설명하기 위한 예시적인 도면이다.
도 11a 내지 도 11b는 본 발명의 또 다른 실시예에 따른 결제 명령을 설명하기 위한 예시적인 도면이다.
도 12는 본 발명의 또 다른 실시예에 따른 결제 명령을 설명하기 위한 예시적인 도면이다.
도 13a 및 13b는 본 발명의 또 다른 실시예에 따른 결제 명령을 설명하기 위한 예시적인 도면이다.
도 14a 및 도 14b는 사용자의 구매 내역 및 사용자의 정보에 기초한 오브젝트와 관련된 링크를 제공하는 구성에 대한 예시적인 도면이다.
도 15a 내지 도 15d는 본 발명의 다양한 실시예에 따른 일괄 결제 기능을 설명하기 위한 예시적인 도면이다.
도 16은 본 발명의 다양한 실시예에 따른 전자 장치에 의한 결제 기능을 설명하기 위한 도면이다.
도 17a 및 도 17b는 본 발명의 다양한 실시예에 따른 사용자의 생체 정보를 입럭하는 장치에 대한 예시적인 도면이다.
도 18은 본 발명의 또 다른 실시예에 따른 생체 정보를 입럭하는 장치에 대한 예시적인 도면이다.
도 19a 내지 도 19c는 본 발명의 다양한 실시예에 따른 생체 정보를 입럭하는 장치에 대한 예시적인 도면이다.
도 20a 및 도 20b는 본 발명의 다양한 실시예에 따른, 전자 장치가 웹 사이트 상에서 결제 기능을 제공하는 구성을 예시적으로 설명하는 도면이다.
도 21은 본 발명의 다양한 실시예에 따른, 동영상의 이미지를 이용하여 오브젝트의 결제를 진행하는 구성을 예시적으로 설명하는 도면이다.
도 22는 본 발명의 다양한 실시예에 따른, 디스플레이 오브젝트를 결제하는 방법을 설명하기 위한 흐름도이다.
도 23은 본 발명의 다양한 실시예에 따른, 디스플레이 오브젝트를 결제하는 방법을 설명하기 위한 흐름도이다.
도 24는 본 발명의 다양한 실시예에 따른 결제를 수행하는 전자 장치에 대한 예시적인 블록도이다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1을 참조하여, 다양한 실시예에서의, 네트워크 환경(100) 내의 전자 장치(101)가 기재된다. 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160), 및 통신 인터페이스(170)를 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다. 버스(110)는 구성요소들(110-170)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 또는 데이터)을 전달하는 회로를 포함할 수 있다. 프로세서(120)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리(130)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램(140)을 저장할 수 있다. 프로그램(140)은, 예를 들면, 커널(141), 미들웨어(143), 어플리케이션 프로그래밍 인터페이스(API)(145), 및/또는 어플리케이션 프로그램(또는 "어플리케이션")(147) 등을 포함할 수 있다. 커널(141), 미들웨어(143), 또는 API(145)의 적어도 일부는, 운영 시스템으로 지칭될 수 있다. 커널(141)은, 예를 들면, 다른 프로그램들(예: 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 커널(141)은 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147)에서 전자 장치(101)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(143)는, 예를 들면, API(145) 또는 어플리케이션 프로그램(147)이 커널(141)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(143)는 어플리케이션 프로그램(147)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(143)는 어플리케이션 프로그램(147) 중 적어도 하나에 전자 장치(101)의 시스템 리소스(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)를 사용할 수 있는 우선 순위를 부여하고, 상기 하나 이상의 작업 요청들을 처리할 수 있다. API(145)는 어플리케이션(147)이 커널(141) 또는 미들웨어(143)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다. 입출력 인터페이스(150)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(101)의 다른 구성요소(들)에 전달하거나, 또는 전자 장치(101)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
디스플레이(160)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(160)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다. 통신 인터페이스(170)는, 예를 들면, 전자 장치(101)와 외부 장치(예: 제 1 외부 전자 장치(102), 제 2 외부 전자 장치(104), 또는 서버(106)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(170)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(104) 또는 서버(106))와 통신할 수 있다.
무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시예에 따르면, 무선 통신은, 예를 들면, 근거리 통신(164)을 포함할 수 있다. 근거리 통신은, 예를 들면, WiFi(wireless fidelity), LiFi(light fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 한실시예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system일 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(162)는 텔레커뮤니케이션 네트워크, 예를 들면, 컴퓨터 네트워크(예: LAN 또는 WAN), 인터넷, 또는 텔레폰 네트워크 중 적어도 하나를 포함할 수 있다.
제 1 및 제 2 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102,104), 또는 서버(106)에서 실행될 수 있다. 한 실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버(106))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시예에 따른 전자 장치(201)의 블록도이다. 전자 장치(201)는, 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 포함할 수 있다. 전자 장치(201)는 하나 이상의 프로세서(예: AP)(210), 통신 모듈(220), 가입자 식별 모듈(224), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 모터(298) 를 포함할 수 있다. 프로세서(210)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서를 더 포함할 수 있다. 프로세서(210)는 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 프로세서(210) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드)하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
통신 모듈(220)(예: 통신 인터페이스(170))와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227), NFC 모듈(228) 및 RF 모듈(229)를 포함할 수 있다. 셀룰러 모듈(221)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM 카드)(224)을 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 프로세서(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP)를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(229)은, 예를 들면, 트랜시버, PAM(power amp module), 주파수 필터, LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다. 가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 또는 임베디드 SIM을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)(예: 메모리(130))는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(232)는, 예를 들면, 휘발성 메모리(예: DRAM, SRAM, 또는 SDRAM 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, 하드 드라이브, 또는 솔리드 스테이트 드라이브 (SSD) 중 적어도 하나를 포함할 수 있다. 외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱 등을 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(201)와 기능적으로 또는 물리적으로 연결될 수 있다.
센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 전자 장치(201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), 컬러(color) 센서(240H)(예: RGB(red, green, blue) 센서), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K), 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(240)은, 예를 들면, 후각(e-nose) 센서, 일렉트로마이오그라피(EMG) 센서, 일렉트로엔씨팔로그램(EEG) 센서, 일렉트로카디오그램(ECG) 센서, IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치(201)는 프로세서(210)의 일부로서 또는 별도로, 센서 모듈(240)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(210)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(240)을 제어할 수 있다.
입력 장치(250)는, 예를 들면, 터치 패널(252), (디지털) 펜 센서(254), 키(256), 또는 초음파 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. (디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(260)(예: 디스플레이(160))는 패널(262), 홀로그램 장치(264), 프로젝터(266), 및/또는 이들을 제어하기 위한 제어 회로를 포함할 수 있다. 패널(262)은, 예를 들면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나 이상의 모듈로 구성될 수 있다. 한 실시예에 따르면, 패널(262)은 사용자의 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(또는 포스 센서)를 포함할 수 있다. 상기 압력 센서는 터치 패널(252)과 일체형으로 구현되거나, 또는 터치 패널(252)과는 별도의 하나 이상의 센서로 구현될 수 있다. 홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(201)의 내부 또는 외부에 위치할 수 있다. 인터페이스(270)는, 예를 들면, HDMI(272), USB(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 인터페이스(270)는, 예를 들면, 도 1에 도시된 통신 인터페이스(170)에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(280)은, 예를 들면, 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(145)에 포함될 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. 카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 시그널 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다. 전력 관리 모듈(295)은, 예를 들면, 전자 장치(201)의 전력을 관리할 수 있다. 한 실시예에 따르면, 전력 관리 모듈(295)은 PMIC(power management integrated circuit), 충전 IC, 또는 배터리 또는 연료 게이지를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(296)는, 예를 들면, 충전식 전지 및/또는 태양 전지를 포함할 수 있다.
인디케이터(297)는 전자 장치(201) 또는 그 일부(예: 프로세서(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동, 또는 햅틱 효과 등을 발생시킬 수 있다. 전자 장치(201)는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있는 모바일 TV 지원 장치(예: GPU)를 포함할 수 있다. 본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치(예: 전자 장치(201))는 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함하거나, 또는, 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 3은 다양한 실시예에 따른 프로그램 모듈의 블록도이다. 한 실시예에 따르면, 프로그램 모듈(310)(예: 프로그램(140))은 전자 장치(예: 전자 장치(101))에 관련된 자원을 제어하는 운영 체제 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 운영 체제는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다. 도 3을 참조하면, 프로그램 모듈(310)은 커널(320)(예: 커널(141)), 미들웨어(330)(예: 미들웨어(143)), (API(360)(예: API(145)), 및/또는 어플리케이션(370)(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 전자 장치 상에 프리로드 되거나, 외부 전자 장치(예: 전자 장치(102, 104), 서버(106) 등)로부터 다운로드 가능하다.
커널(320)은, 예를 들면, 시스템 리소스 매니저(321) 및/또는 디바이스 드라이버(323)를 포함할 수 있다. 시스템 리소스 매니저(321)는 시스템 리소스의 제어, 할당, 또는 회수를 수행할 수 있다. 한 실시예에 따르면, 시스템 리소스 매니저(321)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부를 포함할 수 있다. 디바이스 드라이버(323)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다. 미들웨어(330)는, 예를 들면, 어플리케이션(370)이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션(370)이 전자 장치 내부의 제한된 시스템 자원을 사용할 수 있도록 API(360)를 통해 다양한 기능들을 어플리케이션(370)으로 제공할 수 있다. 한 실시예에 따르면, 미들웨어(330) 는 런타임 라이브러리(335), 어플리케이션 매니저(341), 윈도우 매니저(342), 멀티미디어 매니저(343), 리소스 매니저(344), 파워 매니저(345), 데이터베이스 매니저(346), 패키지 매니저(347), 커넥티비티 매니저(348), 노티피케이션 매니저(349), 로케이션 매니저(350), 그래픽 매니저(351), 또는 시큐리티 매니저(352) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(335)는, 예를 들면, 어플리케이션(370)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리(335)는 입출력 관리, 메모리 관리, 또는 산술 함수 처리를 수행할 수 있다. 어플리케이션 매니저(341)는, 예를 들면, 어플리케이션(370)의 생명 주기를 관리할 수 있다. 윈도우 매니저(342)는 화면에서 사용되는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(343)는 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱을 이용하여 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다. 리소스 매니저(344)는 어플리케이션(370)의 소스 코드 또는 메모리의 공간을 관리할 수 있다. 파워 매니저(345)는, 예를 들면, 배터리의 용량 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보를 제공할 수 있다. 한 실시예에 따르면, 파워 매니저(345)는 바이오스(BIOS: basic input/output system)와 연동할 수 있다. 데이터베이스 매니저(346)는, 예를 들면, 어플리케이션(370)에서 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(347)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다.
커넥티비티 매니저(348)는, 예를 들면, 무선 연결을 관리할 수 있다. 노티피케이션 매니저(349)는, 예를 들면, 도착 메시지, 약속, 근접성 알림 등의 이벤트를 사용자에게 제공할 수 있다. 로케이션 매니저(350)는, 예를 들면, 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(351)는, 예를 들면, 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(352)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다. 한 실시예에 따르면, 미들웨어(330)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화(telephony) 매니저 또는 전술된 구성요소들의 기능들의 조합을 형성할 수 있는 하는 미들웨어 모듈을 포함할 수 있다. 한 실시예에 따르면, 미들웨어(330)는 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 미들웨어(330)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. API(360)는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(370)은, 예를 들면, 홈(371), 다이얼러(372), SMS/MMS(373), IM(instant message)(374), 브라우저(375), 카메라(376), 알람(377), 컨택트(378), 음성 다이얼(379), 이메일(380), 달력(381), 미디어 플레이어(382), 앨범(383), 와치(384), 헬스 케어(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보(예: 기압, 습도, 또는 온도 정보) 제공 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 전자 장치와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리 어플리케이션을 포함할 수 있다. 예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션에서 발생된 알림 정보를 외부 전자 장치로 전달하거나, 또는 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 또는 외부 전자 장치에서 동작하는 어플리케이션을 설치, 삭제, 또는 갱신할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치의 속성에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션)을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치로부터 수신된 어플리케이션을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어(예: 프로세서(210)), 또는 이들 중 적어도 둘 이상의 조합으로 구현(예: 실행)될 수 있으며, 하나 이상의 기능을 수행하기 위한 모듈, 프로그램, 루틴, 명령어 세트 또는 프로세스를 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다. 다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예:메모리(130))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
도 4a 내지 도 4c는 본 발명의 다양한 실시예에 따른 전자 장치의 생체 센서에 대한 예시적인 도면이다.
도 4a, 도 4b 및 도 4c는, 본 발명의 다양한 실시예에 따른 전자 장치(예: 도 1의 100)의 일 예이다. 도 4a를 참조하면, 상기 전자 장치(400)는, 디스플레이(410)의 적어도 일부 영역에 생체 정보(예: 지문 정보)를 인식하기 위한 생체 센서(420)(예: 지문 센서)가 형성될 수 있다. 상기 생체 센서(420)가 디스플레이(410)의 적어도 일부(예: 디스플레이의 Active area 또는 BM(Black Matrix) area)에 형성됨으로써 디스플레이(410)에 대한 사용자의 입력을 이용하여 사용자의 생체 정보를 획득할 수 있다. 또한, 도 4b를 참조하면, 전자 장치는, 디스플레이(440)의 적어도 일부의 위치와 중첩되어 배치된 생체 센서(450)를 포함할 수 있다. 전자 장치는 생체 센서(450)가 차지하는 영역을 별도의 물리적인 버튼 없이 디스플레이(440)의 적어도 일부의 위치와 중첩되도록 배치함으로써 전자 장치의 디스플레이의 사이즈가 확장되도록 할 수 있다. 도 4c를 참고하면, 본 발명의 다양한 실시예에 따르면 생체 센서(460)는 디스플레이(410)의 적어도 일부의 위치에 중첩되도록 배치되는 구성에 한정하지 않고 전자 장치(400)의 측면 또는 하단에 위치할 수도 있다.
도 5는 본 발명의 다양한 실시예에 따른 전자 장치가 생체 센서를 실장하는 구조를 설명하는 예시적인 도면이다.
도 5는, 본 발명의 다양한 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(100))의 디스플레이(540)의 적어도 일부 영역에 사용자의 생체 정보를 감지하기 위한 생체 센서(예: 도 4의 생체 센서(420), 지문 센서(430)) 실장 구조의 일 예이다. 일실시예에 따른 전자 장치는, 글라스(510), 지문센서(530), 디스플레이(540), 지문 센서(580), 또는 PCB(590)를 포함할 수 있다. 글라스(510)는, 접착제(520)를 통해 상기 지문 센서(530), 또는 디스플레이(540)와 접착될 수 있다. 일실시예에 따르면, 상기 전자 장치는, 상기 생체 센서(580) 실장 공간을 확보하기 위한 구조물(550-1, 및 550-2)을 더 포함할 수 있다. 이 때, 상기 구조물(550-1, 및 550-2)은 상기 지문 센서(580)을 보호하기 위한 실링 구조의 적어도 일부를 형성할 수 있다.
본 발명의 다양한 실시예에 따르면, 생체 센서(530, 580)는 디스플레이(540)의 일부 영역(예: 하나의 영역 또는 복수의 영역), 또는 디스플레이의 전체 영역(예: 디스플레이의 활성 영역(Active area))에 형성 될 수 있다. 디스플레이의 일면(예: 상면)(예: 디스플레이의 일면 위의 별도의 층, 또는 디스플레이의 픽셀들(541 내지 543)이 형성된 면의 적어도 일부 영역 등)에 생체 정보를 감지 할 수 있는 생체 센서(530 또는 544)가 형성될 수 있다. 일실시 예에 따르면, 상기 디스플레이의 다른 면(예: 배면)에 생체 센서(580)가 형성될 수 있다. 상기 생체 센서(530, 544 또는 580)는, 예를 들면, 광학 방식의 이미지 센서, 초음파 방식의 송/수신 모듈 또는 정전 방식의 송/수신 전극 패턴을 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 생체 센서(530)는 접착층(520)과 디스플레이(540)사이, 또는 윈도우 글라스(510)과 접착층(520) 사이에 형성될 수 있다. 생체 센서(530)는 정전 방식의 송/수신 전극 패턴으로 형성될 수 있으며, 디스플레이(540)에서 출력되는 빛의 투과율을 높이기 위해 투명한 전극으로 형성될 수 있다. 일실시예에 따르면, 생체 센서(530)는 초음파 방식의 송/수신 모듈도 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 전자 장치는, 디스플레이 다른 면에 생체 센서(580)가 형성될 수 있다. 상기 생체 센서(580)와 상기 디스플레이(540) 사이에는 생체 센서(580)와 상기 디스플레이(540)간의 충격 완화 또는 이물질 유입을 방지하기 위한 탄성체(570-1, 570-2)(예: 스폰지 또는 고무 등)가 형성될 수 있다. 본 발명의 다양한 실시예에 따르면, 상기 생체 센서(580)는, 이미지 센서를 포함할 수 있다. 예를 들어, 상기 이미지 센서는 광원(예: 디스플레이(540) 또는 IR LED)으로 부터 방출되는 빛(예: 가시 광선, 또는 적외선 또는 자외선)을 사용자의 지문에 출력하고, 사용자 지문에 반사된 빛을 상기 이미지 센서로 감지할 수 있다.
도 6은 본 발명의 다양한 실시예에 따른, 전자 장치의 예시적인 도면이다.
도 6은 본 발명의 다양한 실시예에 따른 전자 장치의 일 예이다. 한 실시 예에 따르면, 전자 장치는 적어도 하나의 프로세서(예: 제 1 프로세서(610), 또는 제 2 프로세서(620)), 메모리(630), 디스플레이(640), 또는 적어도 하나의 센서(650)를 포함할 수 있다. 일실시예에 따르면 상기 제 1 프로세서(610)는 상기 전자 장치의 전반적인 구동을 제어할 수 있다. 상기 제 2 프로세서(620)(예: 저전력 프로세서, 또는 센서 HUB)는 상기 전자 장치가 슬립(sleep) 상태인 경우, 상기 제 1 프로세서(610)를 wake up 하지 않고, 상기 적어도 하나의 센서(650)를 통해 획득되는 센서 정보, 또는 사용자로부터 획득되는 입력을 처리할 수 있다. 일실시예에 따르면, 상기 제 2 프로세서(620)는 상기 생체 센서(651), 상기 터치 센서(652), 또는 상기 디스플레이 패널(640)을 상기 제 1 프로세서(610)와는 독립적으로 제어할 수도 있다.
본 발명의 다양한 실시예에 따른 상기 전자 장치는 메모리(630)를 포함할 수 있다. 상기 메모리(630)는 사용자 어플리케이션 등을 저장하기 위한 일반 영역, 또는 지문 센싱을 위한 정보를 등 보안에 민감한 정보를 저장하기 위한 보안 영역을 포함할 수 있다. 일실시예에 따르면, 상기 디스플레이 모듈(640)는 복수의 픽셀들을 포함하는 디스플레이 패널(642), 및 상기 디스플레이 패널(642)에 포함된 상기 복수의 픽셀들 중 적어도 일부를 제어하여 표시 정보를 제공하도록 설정된 디스플레이 구동 모듈(예: Display Driver IC(DDI(641))를 포함할 수 있다. 본 발명의 다양한 실시 예에 따르면, 상기 센서(650)는 상기 디스플레이 모듈(640)에 대한 사용자의 지문을 감지하기 위한 생체 센서(651)(예: 지문 센서), 또는 상기 디스플레이 모듈(640)에 대한 사용자의 터치를 감지하기 위한 터치 센서(652)를 포함할 수 있다. 일실시예에 따르면 상기 생체 센서(651)는 상기 디스플레이 모듈에서 출력되는 빛을 광원으로 사용하는 광학식 지문 센서(예: 이미지 센서) 뿐 아니라 정전식 지문 센서, 초음파식 지문 센서 등의 다양한 방식을 통해 사용자의 생체 정보를 감지할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 적어도 하나의 센서(650)는 사용자 입력에 응답하여, 상기 디스플레이 구동 모듈(641)을 통해 상기 디스플레이 패널(642)에 포함된 복수의 픽셀들을 구동할 수 있다. 한 실시 예에 따르면, 상기 적어도 하나의 센서(650)은, 필요에 따라 상기 디스플레이 패널(642)를 제어할 수 있다. 예를 들어, 상기 생체 센서(651)은, 사용자의 생체 정보를 획득하기 위해 상기 디스플레이 패널(642)를 제어하여 상기 디스플레이로부터 방출되는 빛을 이용할 수 있다.
도 7은 본 발명의 다양한 실시예에 따른 전자 장치의 예시적인 도면이다.
도 7은 본 발명의 다양한 실시 예에 따른 전자 장치(700)의 다른 일 예이다. 일실시예에 따르면, 전자 장치는 복수 개의 컨트롤러(예: 제 1 제어부(711), 제 2 제어부(721), 제 3 제어부(743), 제 4 제어부(753), 또는 제 5 제어부(760) 등)를 포함할 수 있고, 각각의 컨트롤러는 상기 전자 장치에 포함된 모듈(예: 제 1 프로세서(710), 제 2 프로세서(720), DDI(741), 또는 생체 센서(751) 등)에 포함될 수 있다. 예를 들면, 전자 장치는 제 1 제어부(711)를 이용하여 제 1 프로세서(710)을 제어하고, 제 2 제어부(721)를 이용하여 제 2 프로세서(720)을 제어할 수 있다. 또한 전자 장치는 제 3 제어부(743), 제 4 제어부(753)를 이용하여, 상기 제 3 제어부(743), 상기 제 4 제어부(753)이 포함된 모듈을 제어할 수 있다.
본 발명의 다양한 실시예에 따르면, 하나의 컨트롤러를 이용하여, 상기 전자 장치의 모듈들을 제어할 수 있다. 예를 들면, 전자 장치는, 메인 컨트롤러(예: 제 5 제어부(760))를 이용하여, 복수 개의 컨트롤러(예: 제 1 제어부(711), 제 2 제어부(721), 제 3 제어부(743), 제 4 제어부(753))를 제어할 수 있다. 또한 전자 장치는, 메인 컨트롤러를 지정할 수 있고, 지정된 메인 컨트롤러에 의해 다른 컨트롤러들을 제어할 수 있다. 예를 들면, 전자 장치는 제 5 제어부(760)에서 제1 제어부(711)로 메인 컨트롤러를 변경/지정할 수 있고, 지정된 메인 컨트롤러를 이용하여, 다른 컨트롤러들을 제어할 수 있다.
본 발명의 다양한 실시 예에 따르면, 하나의 컨트롤러를 이용하여, 상기 전자 장치 모듈들을 직접적으로 제어할 수 있다. 예를 들면, 전자 장치는 제 1 프로세서(710)에 포함된 제 1 제어부(711)를 이용하여 제 2 프로세서(720), 메모리(730), 디스플레이(740), 및/또는 적어도 하나의 센서(750) 등을 제어할 수 있다. 또한 다른 실시 예에 따르면, 디스플레이(740)와 적어도 하나의 센서(750)를 하나의 컨트롤러에서 제어할 수 있다. 예를 들면, 상기 디스플레이(740)를 광원으로 사용하는 광학식 지문센서의 경우, 상기 디스플레이(740)와 센서(750)를 하나의 컨트롤러를 이용하여 제어할 수 있고, 사용자의 생체 정보를 용이하게 획득할 수 있다.
도 8a 내지 도 8f는 본 발명의 다양한 실시예에 따른, 터치 스크린에 디스플레이되는 오브젝트를 결제하는 기능을 제공하는 구성에 대한 예시적인 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치의 프로세서(예: 도 1의 프로세서(120))는 웹 브라우저 어플리케이션 프로그램 실행 중에 웹 페이지에 디스플레이되는 오브젝트에 대한 결제를 수행할 수 있다. 일실시예에 따라, 사용자는 웹 페이지에 디스플레이되는 오브젝트를 결제하기 위해 전자장치에서 프레스 앤 컨펌(Press and Confirm)의 2단계 동작을 이용하여 현재 사용중인 웹 페이지에 존재하는 오브젝트와 연관되는 상품의 결제를 수행할 수 있다.
도 8a를 살펴보면, 전자 장치의 프로세서(예: 도 1의 프로세서(120))는 터치 스크린을 통해 표시되는 웹 페이지(800) 상에 문자(810) 또는 이미지(820)를 표시하도록 제어할 수 있다. 터치 스크린을 통해 디스플레이되는 이미지(820)는 적어도 하나의 결제 가능한 오브젝트, 예를 들어 아이템 A(821) 및 아이템 B(822)를 포함할 수 있다. 도 8b를 참고하면, 디스플레이되는 이미지(820)에 포함되는 아이템 A(821)를 선택하기 위한 사용자(830)에 의한 터치가 터치 스크린을 통해 수행되면, 프로세서(예: 도 1의 프로세서(120))는 상기 터치를 감지할 수 있다. 프로세서(예: 도 1의 프로세서(120))는 생체 센서를 이용하여 사용자의 터치 입력을 통해 사용자의 생체 정보(예: 지문 정보)를 획득할 수 있고, 획득된 생체 정보를 이용하여 사용자를 인증하고, 선택된 오브젝트와 연관되는 상품에 대한 결제를 수행할 수 있다. 또는, 프로세서는 사용자의 터치 입력에 기초하여 이미지에 포함된 오브젝트의 선택에 대한 정보를 획득하고, 사용자(830)로부터 오브젝트를 결제하기 위해 사용자의 생체 정보를 입력하기 위한 추가적인 터치 입력이 감지되면, 상기 추가적인 터치 입력으로부터 생체 정보를 획득할 수 있다.
본 발명의 다양한 실시예에 따른 프로세서는 사용자(830)의 터치 입력이 감지되면, 터치 입력에 대응하는 오브젝트가 인식됨을 디스플레이를 통해 표시할 수 있다. 도 8b를 참고하면, 프로세서는 사용자(830)로부터의 아이템 A(821)을 선택하는 터치 입력을 감지하면, 아이템 A(821)가 선택됨을 디스플레이를 통해 표시할 수 있다. 예를 들면, 프로세서는 도 8b처럼 아이템 A(821) 주변에 아이템 A(821)가 선택되고 있음을 알려주는 표시(823)를 제공할 수 있다. 도 8b의 표시(823)는 예시적인 것일 뿐 프로세서는 오브젝트의 테두리선을 표시하는 등의 다양한 방식으로 오브젝트가 선택됨을 디스플레이할 수 있으며, 도 8b의 예시가 본 발명의 내용을 제한하는 것은 아니다. 도 8c를 참고하면, 도 8b에서와 같이 오브젝트의 선택이 완료되면 선택된 오브젝트와 연관되는 상품에 대한 결제 정보를 팝업 창(840)을 통해 제공할 수 있다. 팝업 창(840)에는 "Confirm" 버튼(850)이 포함될 수 있으며, 사용자의 터치 입력 등이 터치 스크린에 가해지면 프로세서(예: 도 1의 프로세서(120))는 터치 입력을 결제 명령으로 인식하고, 해당 상품에 대한 결제 기능을 제공하도록 할 수 있다. 결제 명령이란, 사용자의 생체 정보가 획득된 후 사용자의 결제 의도를 인식할 수 있도록 하는 모든 동작 또는 입력을 포함할 수 있다. 일실시예에서, 프로세서는 오브젝트에 대응하는 상품을 판매하는 사이트를 미리 설정된 기준을 이용하여 검색하고, 검색 결과 및 미리 설정된 기준에 기초하여 사이트 중 어느 하나를 선택할 수 있다. 일실시예에 따른 프로세서는, 선택된 사이트에 대한 결제 인터페이스를 팝업 창(840)을 통해 표시할 수 있다. 미리 설정된 기준은 오브젝트에 대응하는 상품의 가격, 사용자 설정 또는 사이트의 신뢰도 등 다양하게 설정될 수 있다. 일실시예에서, 프로세서(예: 도 1의 프로세서(120))는 웹 페이지에 설정된 태그 정보 또는 웹페이지에 포함된 오브젝트의 태그 정보에서 등록된 오브젝트의 결제 정보, 판매처 정보 중 적어도 하나 이상을 이용하여 그래픽 유저 인터페이스를 생성하고, 터치 스크린을 통해 디스플레이할 수 있다. 도 8d를 참고하면, 사용자(860)는 터치 입력 등의 입력을 통해 팝업 창(840)에 포함된 "Confirm" 버튼(850)에 터치 입력을 가하는 결제 명령을 수행할 수 있고, 전자 장치가 결제 명령을 수신하고 인식하는 경우 획득한 생체 정보를 이용하여 오브젝트와 관련되는 상품에 대한 결제를 수행할 수 있다. 도 8e를 참고하면, 상품에 대한 결제가 완료되면 팝업 창 등의 방식을 가지는 알림(870)을 통해 결제가 완료되었음을 사용자에게 알릴 수 있다.
본 발명의 다양한 실시예에 따르면, 별도의 결제 명령 없이도 생체 정보만을 이용하여 오브젝트에 대응하는 상품에 대한 결제 기능을 수행하도록 할 수 있다. 일실시예에 따른 프로세서(예: 도 1의 프로세서(120))는, 적어도 하나의 오브젝트가 포함된 이미지를 상기 터치 스크린 상에 표시하도록 제어하고, 상기 터치 스크린을 통하여, 상기 적어도 하나의 오브젝트 중 제 1 오브젝트에 대한 터치를 검출하고, 상기 생체 센서가 상기 터치로부터 획득한 생체 정보를 이용하여, 상기 제 1 오브젝트에 대응하는 상품에 대한 결제 기능을 수행하도록 설정될 수 있다.
본 발명의 또 다른 실시예에 따르면, 전자 장치는 사용자가 사용하고 있던 웹 페이지(800)에 포함된 문자(810)를 분석하여 사용자가 구매 의도를 가지는 상품을 특정할 수도 있다. 일실시예에 따르면, 전자 장치의 프로세서(예: 도 1의 프로세서(120))는 전면 카메라를 통해 사용자의 눈동자의 움직임을 추적하여 사용자가 오브젝트를 선택하는 동작 전에 관심 있게 주시하였던 웹 페이지(800)의 특정 영역을 검출하고, 검출된 영역에서의 정보를 중심으로 사용자가 구매하고자 하는 상품을 특정하여 사용자에게 제공할 수 있다.
본 발명의 다양한 실시예에 따르면, 오브젝트에 대응하는 상품의 구매가 가능한 복수의 사이트를 제공하여 사용자의 선택을 받으면 해당 사이트의 결제 인터페이스를 표시할 수 있다.
도 8f를 참고하면, 본 발명의 다양한 실시예에 따른 프로세서가 도 8b에서와 같이 아이템 A(821)에 대한 터치 입력을 인식하는 경우, 프로세서는 오브젝트에 대응하는 상품을 판매하는 사이트를 미리 설정된 기준을 이용하여 검색할 수 있다. 프로세서는 도 8c와 달리 검색 결과에 따라 복수의 사이트(890)를 표시할 수 있고, 표시된 복수의 사이트 중 어느 하나의 사이트에 대한 사용자의 터치 입력을 수신할 수 있다. 일실시예에 따른 프로세서는, 사용자의 터치 입력을 이용하여 선택된 사이트에 대한 결제 인터페이스를 팝업 창(880)에 표시할 수 있다. 프로세서가 사이트를 검색하고 표시하는 미리 설정된 기준은 오브젝트에 대응하는 상품의 가격, 사용자 설정 또는 사이트의 신뢰도 등 다양하게 설정될 수 있다.
도 9a 및 도 9b는 본 발명의 다양한 실시예에 따른 결제 명령을 설명하기 위한 예시적인 도면이다.
본 발명의 다양한 실시예에 따르면, 전자장치의 프로세서(예: 도 1의 프로세서(120))는 상술한 결제 명령을 사용자의 터치 입력이 아닌 다양한 방식으로 인식할 수 있다. 예를 들어, 전자장치는 사용자의 생체 정보 인증과 함께 입력되는 특정 모션을 결제 명령으로 감지하여 사용자의 결제 의도를 감지할 수 있으며, 이를 통해 오브젝트에 대한 결제를 진행시킬 수도 있다.
도 9a를 참고하면, 사용자(920)가 터치 입력을 통해 오브젝트(910)를 선택하면, 프로세서(예: 도 1의 프로세서(120))는 생체 센서를 이용하여 사용자의 터치 입력으로부터 사용자의 생체 정보(예: 지문 정보)를 획득할 수 있다. 도 9b를 참고하면, 프로세서(예: 도 1의 프로세서(120))가 사용자로부터 터치 입력을 감지하여 생체 정보에 대한 인증이 수행된 후, 사용자(930)에 의해 오브젝트(910)에 대해 엄지 손톱 끝으로 입력되는 터치 입력이 수신되면, 전자장치는 사용자의 결제 명령으로 인식하여 선택된 오브젝트와 연관되는 상품의 결제 기능을 제공할 수 있다.
도 10a 및 도 10b는 본 발명의 또 다른 실시예에 따른 결제 명령을 설명하기 위한 예시적인 도면이다.
본 발명의 다양한 실시예에 따르면, 전자장치는 적어도 하나의 센서를 포함하고, 상기 적어도 하나의 센서를 통해 상기 전자 장치가 미리 결정된 모션 패턴으로 움직인 것으로 판단되면, 상기 전자 장치의 모션 패턴을 상기 결제 명령으로 판단할 수 있다. 도 10a의 예를 들면, 오브젝트(1010)와 관련된 상품을 구매하기 위해 사용자(1020)가 오브젝트(1010)에 입력을 가하면, 프로세서(예: 도 1의 프로세서(120))는 사용자(1020)의 입력으로부터 생체 정보, 예를 들어 지문 정보를 획득할 수 있다. 프로세서(예: 도 1의 프로세서(120))가 지문 정보를 획득하고, 도 10b와 같이 사용자에 의한 전자 장치(1030)의 미리 결정된 모션 패턴, 예를 들어 수 차례 흔드는 모션을 인식함으로써, 상기 미리 결정된 모션 패턴을 상기 오브젝트와 연관된 상품에 대한 결제 명령으로 인식하고 해당 상품에 대한 결제 기능을 제공할 수 있다.
도 11a 내지 도 11b는 본 발명의 또 다른 실시예에 따른 결제 명령을 설명하기 위한 예시적인 도면이다.
본 발명의 다양한 실시예에 따르면, 전자장치는 센서를 통해 인식되는 전자 장치의 미리 결정된 모션 패턴(예를 들어 지문인식상태에서 뒤집었다 복귀시키는 동작)을 인식 함으로써, 사용자의 결제 의도를 확인하고 상품에 대한 결제를 수행할 수 있다. 예를 들어, 도 11a를 참고하면, 사용자(1120)가 전자 장치(1100)를 파지한 상태로 전자 장치의 터치 스크린에 표시된 오브젝트(1110)에 대한 입력을 가하는 경우, 프로세서(예: 도 1의 프로세서(120))는 사용자(1120)의 입력으로부터 생체 정보, 예를 들어 지문 정보를 획득할 수 있다. 이 때, 전자 장치를 지문을 인식시킨 상태에서 사용자가 도 11b 와 같이 전자 장치를 뒤집었다가 다시 복귀시키는 동작을 수행할 수 있다. 전자 장치를 뒤집었다가 복귀시키는 동작은 미리 결정된 모션 패턴으로 메모리에 저장될 수 있으며, 미리 결정된 모션 패턴에 따른 결제 명령을 이용하여 오브젝트(1110)에 관련된 상품에 대한 결제 기능을 제공할 수 있다. 일실시예에 따라, 오브젝트(1110)에 관련된 상품에 대한 결제가 완료되면, 프로세서(예: 도 1의 프로세서(120))는 터치 스크린을 통해 표시되는 알람(1130)을 이용하여 사용자에게 상품에 대한 결제가 완료되었음을 알릴 수 있다.
도 12는 본 발명의 또 다른 실시예에 따른 결제 명령을 설명하기 위한 예시적인 도면이다.
본 발명의 다양한 실시예에 따라, 전자장치가 전자 장치의 지문 인식이 가능한 부분으로부터 지문 입력을 수신받아 사용자를 인증하고, 이 후 사용자의 드래그 동작에 대응하여 상품에 대한 결제 명령을 인식할 수 있다. 도 12를 참고하면, 전자 장치(1200)의 터치 스크린 상에 표시된 오브젝트(1210)와 관련된 상품을 결제하기 위해 사용자(1220)는 먼저 오브젝트(1210)가 포함된 이미지에 대한 터치 입력을 가할 수 있다. 일실시예에 따라, 프로세서(예: 도 1의 프로세서(120))는 터치 스크린을 통해 오브젝트(1210)에 대한 터치를 검출할 수 있고, 생체 센서가 터치로부터 획득한 생체 정보를 이용하여, 오브젝트에 대응하는 상품에 대한 결제 기능을 수행하도록 할 수 있다. 일실시예에 따라, 프로세서(예: 도 1의 프로세서(120))는 사용자에 의한 드래그 입력을 감지하고, 감지된 드래그 입력을 결제 명령으로 인식하여 획득한 생체 정보와 함께 오브젝트와 관련된 상품을 결제하도록 할 수 있다.
도 13a 및 13b는 본 발명의 또 다른 실시예에 따른 결제 명령을 설명하기 위한 예시적인 도면이다.
본 발명의 다양한 실시예에 따르면, 전자장치의 프로세서(예: 도 1의 프로세서(120))는 도 4c에 도시된 바와 같이 전자 장치의 측면에 배치된 생체 센서를 사용하여 사용자의 생체 정보를 획득하도록 제어할 수 있다. 프로세서(예: 도 1의 프로세서(120))는 도 13a와 같이 전면에 배치된 생체 센서만을 이용하여 사용자의 생체 정보를 획득하도록 제어할 뿐 아니라, 도 13b와 같이 사용자의 전자 장치에 대한 터치 특정 입력 패턴(예를 들어 도 13b의 1320과 같이 결제 의도가 있는 오브젝트를 선택하는 압력 입력 동작)으로 상품 선택 확인 후 측면 양쪽(또는 한쪽)의 생체 센서의 입력(1320))을 인식 함으로써, 사용자의 결제 의도를 확인하고 해당 오브젝트와 관려된 상품에 대한 결제를 수행할 수 있다.
도 14a 및 도 14b는 사용자의 구매 내역 및 사용자의 정보에 기초한 오브젝트와 관련된 링크를 제공하는 구성에 대한 예시적인 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치는 앞에서 설명한 결제를 전자장치 내부의 메모리 또는 외부 서버에 저장된 사용자의 이전 구매 이력 혹은 구매 시도 이력을 활용하여 사용할 수도 있다. 예를 들어, 도 14a를 참고하면, 프로세서(예: 도 1의 프로세서(120))는 사용자가 이미지 또는 이미지 내의 특정 오브젝트를 보고 구매한 혹은 구매를 시도한 이력 정보를 메모리에 저장할 수 있으며, 이후 사용자가 같거나 유사한 이미지 또는 같거나 유사한 이미지 내의 특정 오브젝트에 대응하는 상품에 대한 구매 의사를 표현했을 때, 저장된 특정 사용자의 구매 이력 혹은 구매 시도 이력 정보를 활용하여 전자 장치는 사용자에게 특정 상품의 구매가 가능하나 웹 페이지(1420) 또는 구매 방법 또는 상품정보를 선택하여 제공할 수 있다.
본 발명의 실시예에 따르면, 전자 장치와 연동하는 외부의 서버는 전자 장치로부터 전송된 사용자들의 결제 이력 또는 결제를 시도한 정보를 수집할 수 있으며, 이를 나이 / 성별 / 지역 / 성향 등으로 분류를 만들어 저장할 수 있다. 도 14b를 참고하면, 사용자가 자신의 전자장치에서 특정 오브젝트에 대응되는 상품(1430)에 대한 구매 요청을 표시한 경우(오브젝트에 대한 사용자의 터치 입력), 서버는 해당 전자 장치에 특정 사용자의 나이 / 성별 / 지역 / 성향 등을 기준으로 상품을 구매한 정보를 제공할 수 있으며, 이를 통해 전자 장치는 사용자에게 특정 상품 구매처 또는 구매 방법 또는 상품정보를 선택하여 링크(1440) 등의 방식으로 추천을 제공할 수도 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치와 연동하는 외부의 서버의 결제 방식으로 결제를 수행한 혹은 결제를 시도한 정보를 위한 내부의 분류에 한정하지 않고 구매를 확정하기 위한 정보를 특정할 수 있으며 불특정 다수의 사용자가 스스로 등록 혹은 만들어 저장한 정보를 이용할 수 있다. 불특정 사용자가 다양한 저장장치를 혹은 인터넷 여러 곳에 기록해둔 상품 정보를 취합하여 구매 혹은 구매 시도 기록으로 구분하여 사용자가 구매를 시도하려는 상품 정보와 비교하여 한 개 혹은 복수 개를 추천할 수 있다. 이때 사용자는 자신의 구매 의도와 부합하는 정도에 따라 평가를 통해 서버로 정보를 보낼 수 있으며 이 정보를 통해 다른 사용자의 구매 의도를 결정하는 데 다시 사용할 수 있다. 간단한 실시 예로는 불특정 다수에 의해 구성된 가장 많이 구매한 순서를 참조하여 사용자의 구매에 예상되는 추천을 제공할 수 있으나 사용자의 구매 의도와 다르다면 이를 평가하여 다른 사용자에게 제공하는 추천의 가중치를 변경할 수 있다. 또한, 구매 의도와 부합하는 정도를 평가하는 사용자의 빈도를 서버로 보내어 그 정보를 바탕으로 별개의 분류로 구분하여 저장할 수 있다.
도 15a 내지 도 15d는 본 발명의 다양한 실시예에 따른 일괄 결제 기능을 설명하기 위한 예시적인 도면이다.
본 발명의 다양한 실시예에 따르면, 전자장치는 사용자가 수집한 상품들에 대한 정보를 저장하여 상품들에 대해 일괄적으로 결제를 수행할 수도 있다. 도 15a를 참고하면, 제1 오브젝트(1510)에 대해 사용자(1520)의 입력이 가해지면, 프로세서(예: 도 1의 프로세서(120))는 사용자(1520)의 입력으로부터 생체 정보를 획득할 수 있다. 일실시예에 따라, 사용자(1520)가 오브젝트(1510)를 드래그 동작을 이용하여 미리 결정된 일부의 화면 영역(1530)으로 이동시킬 수 있다. 프로세서(예: 도 1의 프로세서(120))는, 미리 결정된 일부의 화면 영역(1530)으로 이동된 제1 오브젝트(1510)에 대한 정보를 메모리에 저장할 수 있다. 도 15b를 참고하면, 미리 결정된 일부의 화면 영역(1530)에 저장된 제1 오브젝트(1540) 외의 제2 오브젝트(1511)를 결제하기 위해 미리 결정된 일부의 화면 영역(1530)으로 드래그하는 동작을 수행할 수 있다. 제2 오브젝트(1511) 또한 미리 결정된 일부의 화면 영역(1530)에 저장되며, 프로세서(예: 도 1의 프로세서(120))는 제2 오브젝트(1511)에 대한 정보를 메모리에 저장될 수 있다. 도 15c를 참고하면, 동일한 과정을 통해 제3 오브젝트(1512)를 미리 결정된 일부의 화면 영역(1530)에 드래그함으로써 저장할 수 있고, 프로세서(예: 도 1의 프로세서(120))는 관련 정보를 메모리에 저장할 수 있다. 일실시예에 따르면, 프로세서(예: 도 1의 프로세서(120))는 사용자의 미리 결정된 일부의 화면 영역(1530)을 스와이프 업(swipe up)하는 동작에 대응하여 도 15d와 같이 제1 오브젝트 내지 제3 오브젝트와 관련된 상품을 일괄적으로 결제할 수 있도록 결제 화면을 표시할 수 있고, 결제 명령에 기초하여 제1 오브젝트 내지 제3 오브젝트와 관련되는 상품에 대한 결제를 할 수 있다.
도 16은 본 발명의 다양한 실시예에 따른 전자 장치에 의한 결제 기능을 설명하기 위한 도면이다.
본 발명의 다양한 실시예에 따르면, 상기 프로세서(예: 도 1의 프로세서(120))는, 카메라 어플리케이션이 실행되어 상기 터치 스크린을 통해 적어도 하나의 오브젝트가 표시되면, 상기 표시된 적어도 하나의 오브젝트 중 입력이 수신된 오브젝트를 인식할 수 있다. 도 16을 참고하면, 프로세서(예: 도 1의 프로세서(120))가 카메라 어플리케이션을 실행한 상태로, 오브젝트와 관련된 상품(1610)을 카메라를 이용하여 촬영할 수 있다. 촬영에 따라 오브젝트(1630)가 터치 스크린을 통해 표시되면, 사용자(1620)는 오브젝트(1630)와 관련된 상품(1610)을 결제하기 위해 입력을 가할 수 있다. 이후의 과정은 상술한 과정과 동일하게 진행되며, 프로세서(예: 도 1의 프로세서(120))에 의해 상품(1610)에 관련된 결제 정보가 디스플레이되고, 사용자로부터 결제 명령이 수신되어 프로세서(예: 도 1의 프로세서(120))가 상기 결제 명령을 인식하면 상품에 대한 결제 기능을 제공할 수 있다.
도 17a 및 도 17b는 본 발명의 다양한 실시예에 따른 사용자의 생체 정보를 입럭하는 장치에 대한 예시적인 도면이다.
본 발명의 다양한 실시예에 따르면, 전자 장치는 사용자의 생체 정보를 획득할 수 있는 마우스 등 다양한 입력 장치와 연동되어 결제 기능을 제공할 수 있다. 도 17a를 참고하면, 사용자가 PC화면(1700)을 검색하던 중 구매하고 싶은 이미지, 동영상, 텍스트(예: 도 17a의 1720) 등을 발견하는 경우 이미지, 동영상, 텍스트 등의 위에 마우스의 버튼(1710)을 이용하여 이미지, 동영상, 텍스트와 연관되는 상품에 대한 결제 기능을 제공할 수 있다. 도 17b를 참고하면, 마우스(1730)의 경우 사용자(1740)로부터 생체 정보를 획득하기 위한 생체 센서(1750)를 구비할 수 있다.
본 발명의 다양한 실시예에 따르면, 사용자는 전자 장치에 표시된 화면을 검색 하던 중 구매하고 싶은 오브젝트에 관련된 상품을 발견하고 오브젝트 위에서 마우스의 좌, 우 버튼을 함께 클릭함으로써 해당 오브젝트와 관련된 정보를 전자 장치 또는 웹 브라우저와 계정이 연동된 다른 전자 장치에 전달하고, 전자 장치에서는 선택된 오브젝트와 연계된 결제 정보를 메모리로부터 획득하여 화면에 표시하고, 이후 사용자의 지문 인식 동작만을 이용하여 현재 사용중인 화면에 존재하는 상품의 결제 기능을 제공할 수 있다.
도 18은 본 발명의 또 다른 실시예에 따른 생체 정보를 입럭하는 장치에 대한 예시적인 도면이다.
본 발명의 다양한 실시예에 따르면, 사용자는 구매하고 특정하는 동작에 열거된 마우스나 생체 센서(예: 지문 센서)에 한정하지 않고 기타 센싱이 가능한 입력 장치를 한 개 혹은 그 이상을 사용하여 구매 동작의 의도를 확인할 수 있다. 즉, 입력된 지문과 사용자의 음성 명령에 의해 확인된 구매 의사를 조합하여 그 의도를 확인할 수 있다. 예를 들어, 도 18과 같이 사용자(1820)의 생체 정보를 인식할 수 있는 생체 센서를 구비한 스마트 워치(1810)가 제공될 수 있다. 사용자의 전자 장치, 노트북 또는 퍼스널 컴퓨터와 연동될 수 있으며, 스마트 워치에 포함된 생체 센서를 통해 사용자의 생체 정보 또는 결제 명령을 인식, 오브젝트에 대한 결제 기능을 제공할 수 있다.
도 19a 내지 도 19c는 본 발명의 다양한 실시예에 따른 생체 정보를 입력하는 장치에 대한 예시적인 도면이다.
앞에서 설명한 개인화 결제 방법은 생체 센서를 구비한 노트북과 같은 퍼스널 컴퓨터에서도 동일하게 적용될 수 있다. 예를 들어, 도 19a의 노트북(1910)에 포함된 마우스 패드(1920), 도 19b의 터치 패드(1930), 도 19c의 리모콘에 포함된 터치 패드(1940)를 통해서 사용자의 생체 정보 및 결제 명령을 인식, 오브젝트에 대응하는 상품에 대한 결제 기능을 제공할 수 있다. 전자 장치와 기능적으로 연결되어 있는 터치 패드에는 생체 센서가 내장되어 있을 수 있으며, 일실시예에 따르면, 사용자의 압력 입력에 대응하여 전자장치가 사용자의 지문을 인식하고, 이와 동시에 전자 장치는 마우스 포인터가 현재 지시하고 있는 이미지, 동영상, 텍스트 등의 오브젝트를 구별할 수 있다.
도 20a 및 도 20b는 본 발명의 다양한 실시예에 따른, 전자 장치가 웹 사이트 상에서 결제 기능을 제공하는 구성을 예시적으로 설명하는 도면이다.
도 20a를 참고하면, 본 발명의 다양한 실시예에 따른 프로세서(예: 도 1의 프로세서(120))는 포인터(2010)가 가리키는 오브젝트(2020)와 연관된 상품을 구별하여 추출해 낼 수 있다. 도 20b를 참고하면, 도 20a에서와 같이 추출된 상품을 구매할 수 있는 구매처 정보와, 사용자의 개인 정보를 조합하여, 상품 구매 관련 페이지(2030)를 팝업 창의 방식 등으로 구성하여 사용자에게 제공할 수 있다. 전자 장치는 이후 사용자의 결제 명령에 대응하여 상품에 대한 실제적인 결제를 수행할 수 있다. 일실시예에 따라, 사용자는 특정 구매사이트에 종속되지 않은 상태에서 사용자의 결제 수단만을 이용하여 사용자가 선호하는 또는 시스템이 추천하는 물품 판매 사이트를 이용하여 빠르고 정확하고 편리하게 결제를 수행할 수 있다.
도 21은 본 발명의 다양한 실시예에 따른, 동영상의 이미지를 이용하여 오브젝트의 결제를 진행하는 구성을 예시적으로 설명하는 도면이다.
도 21을 참고하면, 본 발명의 다양한 실시예에 따라 동영상 파일의 시간 정보 및 위치 정보에 기초하여 적어도 하나의 오브젝트에 대한 결제 정보를 동영상 내에 저장할 수 있다. 예를 들어, 전자 장치의 프로세서(예: 도 1의 프로세서(120)) 또는 외부의 서버는 동영상의 특정 지점(2130)의 이미지에 포함된 제1 오브젝트(2110) 및 제2 오브젝트(2120)에 대한 정보를 동영상 내에 저장할 수 있다. 제1 오브젝트(2110) 및 제2 오브젝트(2120) 중 어느 하나의 오브젝트에 대한 사용자의 터치가 감지되면, 프로세서(예: 도 1의 프로세서(120))는 선택된 오브젝트에 대한 시간 정보 또는 이미지 내에서의 위치 정보 중 적어도 하나의 정보에 기초하여 오브젝트를 인식할 수 있고, 상술한 내용들에 기초하여 오브젝트에 대한 결제 기능을 제공할 수 있다.
도 22는 본 발명의 다양한 실시예에 따른, 디스플레이 오브젝트를 결제하는 방법을 설명하기 위한 흐름도이다.
도 22를 참고하면, 본 발명의 다양한 실시예에 따른 결제를 수행하는 방법은, 동작 2210에서 프로세서(예: 도 1의 프로세서(120))는 생체 센서를 이용하여, 터치 스크린을 통해 디스플레이되는 오브젝트에 대한 입력으로부터 사용자의 생체 정보를 획득할 수 있다. 일실시예에 따라, 프로세서(예: 도 1의 프로세서(120))는 동작 2220에서 터치 스크린을 통해 디스플레이되는 오브젝트에 대응하는 상품의 결제 기능과 연관되는 결제 명령을 수신할 수 있다. 동작 2230에서, 프로세서(예: 도 1의 프로세서(120))는 오브젝트에 대응하는 상품에 대한 결제 명령에 따라, 생체 정보를 이용하여 오브젝트에 대응하는 상품을 결제하는 동작을 수행할 수 있다. 일실시예에 따른 방법에 있어서, 프로세서(예: 도 1의 프로세서(120))는 오브젝트를 포함하는 이미지를 상기 터치 스크린을 통해 디스플레이하는 동작, 상기 오브젝트에 대한 입력에 기초하여 상기 이미지로부터 상기 오브젝트를 인식하는 동작, 및 상기 인식된 오브젝트에 대응하는 상품에 대한 결제 정보를 그래픽 유저 인터페이스를 통해 제공하는 동작을 수행할 수 있다. 일실시예에 따른 방법에 있어서, 상기 프로세서(예: 도 1의 프로세서(120))는 상기 오브젝트에 대한 결제 정보를, 상기 오브젝트에 대응하는 상품에 대한 결제 정보를 저장하는 메모리 또는 외부 서버로부터 수신하는 동작, 및 상기 수신된 결제 정보를 이용하여 상기 오브젝트에 대응하는 상품에 대한 결제 기능을 수행하는 동작을 포함할 수 있다. 일실시예에 따른 방법에 있어서, 상기 프로세서(예: 도 1의 프로세서(120))는 상기 적어도 하나의 센서를 통해 상기 전자 장치가 미리 결정된 모션 패턴으로 움직인 것으로 판단되면, 상기 전자 장치의 모션 패턴을 상기 결제 명령으로 판단하는 동작을 포함할 수 있다. 일실시예에 따른 방법에 있어서, 상기 프로세서(예: 도 1의 프로세서(120))는 상기 사용자의 오브젝트에 대응하는 상품의 구매 이력에 대한 메타 데이터 또는 상기 사용자의 정보(예: 배송지 주소, 연락처, 결제 정보) 중 적어도 하나에 기초하여, 상기 오브젝트와 관련되는 적어도 하나의 다른 오브젝트에 대응하는 상품에 대한 정보(예: 상품명, 가격, 판매처, URL정보)를 제공하는 동작을 포함할 수 있다. 일실시예에 따른 방법에 있어서, 상기 프로세서(예: 도 1의 프로세서(120))는 상기 오브젝트를 미리 결정된 일부의 화면 영역으로의 드래그하는 입력이 수신되면, 상기 프로세서(예: 도 1의 프로세서(120))는 터치 스크린을 통해 상기 오브젝트를 상기 미리 결정된 일부의 화면 영역에 표시하고, 상기 일부의 화면 영역에 미리 결정된 동작이 수신되고 상기 오브젝트에 대응하는 상품의 결제 기능과 연관되는 결제 명령이 수신되는 경우 상기 오브젝트에 대응하는 상품을 결제하는 동작을 포함할 수 있다. 일실시예에 따른 방법에 있어서, 상기 프로세서(예: 도 1의 프로세서(120))는 터치 스크린을 통해 상기 오브젝트가 포함된 동영상을 표시하는 동작, 및 상기 오브젝트가 포함된 상기 동영상에 대한 사용자의 입력에 따라, 상기 동영상의 시간 정보 및 위치 정보에 연관되어 저장된 상기 오브젝트를 인식하는 동작을 포함할 수 있다. 일실시예에 따른 방법에 있어서, 상기 프로세서(예: 도 1의 프로세서(120))는, 카메라 어플리케이션이 실행되어 상기 터치 스크린을 통해 적어도 하나의 오브젝트가 표시되면, 상기 표시된 적어도 하나의 오브젝트 중 입력이 수신된 오브젝트를 인식하는 동작을 포함할 수 있다. 결제를 수행하는 전자 장치의 제어 방법에 대한 자세한 설명은 결제를 수행하는 전자 장치의 내용과 동일하므로 생략하기로 한다.
도 23은 본 발명의 다양한 실시예에 따른, 결제를 수행하는 방법을 설명하기 위한 흐름도이다.
본 발명의 다양한 실시예에 따른 결제를 수행하는 방법에 있어서, 동작 2310에서는 프로세서(예: 도 1의 프로세서(120))가 적어도 하나의 오브젝트가 포함된 이미지를 터치 스크린 상에 표시하도록 제어할 수 있다. 동작 2320에서는, 프로세서(예: 도 1의 프로세서(120))가 터치 스크린을 통하여, 상기 적어도 하나의 오브젝트 중 제1 오브젝트에 대한 터치를 검출할 수 있다. 동작 2330에서는, 프로세서(예: 도 1의 프로세서(120))가 생체 센서가 터치로부터 획득한 생체 정보를 이용하여, 제1 오브젝트에 대응하는 상품에 대한 결제 기능을 수행할 수 있다. 일실시예에 따른 방법에 있어서, 프로세서(예: 도 1의 프로세서(120))는 제1 오브젝트를 포함하는 이미지를 상기 터치 스크린을 통해 디스플레이하는 동작, 상기 오브젝트에 대한 입력에 기초하여 상기 이미지로부터 상기 오브젝트를 인식하는 동작, 및 상기 인식된 제1 오브젝트에 대응하는 상품에 대한 결제 정보를 그래픽 유저 인터페이스를 통해 제공하는 동작을 수행할 수 있다. 일실시예에 따른 방법에 있어서, 상기 프로세서(예: 도 1의 프로세서(120))는 상기 제1 오브젝트에 대응하는 상품에 대한 결제 정보를, 상기 제1 오브젝트에 대응하는 상품에 대한 결제 정보를 저장하는 메모리 또는 외부 서버로부터 수신하는 동작, 및 상기 수신된 결제 정보를 이용하여 상기 제1 오브젝트에 대응하는 상품에 대한 결제 기능을 수행하는 동작을 포함할 수 있다. 일실시예에 따른 방법에 있어서, 상기 프로세서(예: 도 1의 프로세서(120))는 상기 적어도 하나의 센서를 통해 상기 전자 장치가 미리 결정된 모션 패턴으로 움직인 것으로 판단되면, 상기 전자 장치의 모션 패턴을 상기 결제 명령으로 판단하는 동작을 포함할 수 있다. 일실시예에 따른 방법에 있어서, 상기 프로세서(예: 도 1의 프로세서(120))는 상기 사용자의 오브젝트 구매 이력에 대한 메타 데이터 또는 상기 사용자에 대응하는 정보 중 적어도 하나에 기초하여, 상기 제1 오브젝트와 관련되는 적어도 하나의 제2 오브젝트에 대한 정보를 제공하는 동작을 포함할 수 있다. 일실시예에 따른 방법에 있어서, 상기 프로세서(예: 도 1의 프로세서(120))는 상기 제1 오브젝트를 미리 결정된 일부의 화면 영역으로의 드래그하는 입력이 수신되면, 상기 프로세서(예: 도 1의 프로세서(120))는 터치 스크린을 통해 상기 제1 오브젝트를 상기 미리 결정된 일부의 화면 영역에 표시하고, 상기 일부의 화면 영역에 미리 결정된 동작이 수신되고 상기 오브젝트의 결제 기능과 연관되는 결제 명령이 수신되는 경우 상기 제1 오브젝트에 대응하는 상품에 대한 결제 기능을 제공하는 동작을 포함할 수 있다. 일실시예에 따른 방법에 있어서, 상기 프로세서(예: 도 1의 프로세서(120))는 터치 스크린을 통해 상기 제1 오브젝트가 포함된 동영상을 표시하는 동작, 및 상기 제1 오브젝트가 포함된 상기 동영상에 대한 사용자의 입력에 따라, 상기 동영상의 시간 정보 및 위치 정보에 연관되어 저장된 상기 제1 오브젝트를 인식하는 동작을 포함할 수 있다. 일실시예에 따른 방법에 있어서, 상기 프로세서(예: 도 1의 프로세서(120))는, 카메라 어플리케이션이 실행되어 상기 터치 스크린을 통해 적어도 하나의 오브젝트가 표시되면, 상기 표시된 적어도 하나의 오브젝트 중 입력이 수신된 제1 오브젝트를 인식하는 동작을 포함할 수 있다. 결제를 수행하는 전자 장치의 제어 방법에 대한 자세한 설명은 결제를 수행하는 전자 장치의 내용과 동일하므로 생략한다.
도 24는 본 발명의 다양한 실시예에 따른 결제를 수행하는 전자 장치에 대한 예시적인 블록도이다.
본 발명의 다양한 실시예에 따른 전자 장치는, 다음 그림과 같이 센서 입력 모듈(2410), 결제 엔진(2420), 유저 인터페이스 생성 모듈(2430), 결제 모듈(2440), 사용자 데이터베이스(2450), 상품 데이터베이스(2460), 상품 제공 데이터베이스(2470)로 구성될 수 있다. 이러한 각각의 모듈은 소프트웨어적으로 구현될 수도 있으며, 하드웨어적으로 구현될 수도 있다.
센서 입력 모듈(2410)은 전자기기 외부로부터 신호를 수신하는 모듈로써, 터치 센서 및 압력 센서, 지문 센서를 비롯하여 지자기 센서, 가속도 센서, 기압 센서, 압력 센서, 카메라와 같은 물리적인 센서일 수 있다. 센서 입력 모듈(2410)은 전자 장치 외부의 입력을 수신하여 결제 엔진(2420)으로 전달하는 역할을 수행한다. 예를 들어, 센서 입력 모듈(2410)은 사용자의 터치 입력 또는 포스 입력을 감지할 수 있으며, 압력 입력이 인가된 터치스크린 상의 좌표를 구별하고, 이때 함께 입력된 지문 센서의 입력을 결제 엔진(2420)으로 전달할 수 있다.
일실시예에 따라, 결제 엔진(2420)은 전반적인 오브젝트에 대응하는 상품의 결제 프로세스를 제어하는 역할을 수행하며, 일실시예에 의하면, 제어 모듈(2421), 사용자 정보 추출 모듈(2422), 상품 정보 추출 모듈(2423)로 구성될 수 있다.
일실시예에 따라, 결제 엔진(2420)은 센서 입력 모듈(2410)로부터 전달받은 센서 입력 정보와 현재 화면에 표시된 컨텍스트 관련 정보를 사용자 정보 추출 모듈(2422)과 상품 정보 추출 모듈(2423)로 전달하여, 각각의 연결된 데이터베이스로부터 오브젝트에 대응하는 상품의 결제에 필요한 정보를 추출하여 유저 인터페이스 생성 모듈(2430)로 전달할 수 있다.
예를 들어, 결제 엔진(2420)은 센서 입력 모듈(2410)로부터 지문 입력 정보와 터치 좌표 위치를 수신할 수 있다. 이 때 결제 엔진(2420)은 수신한 지문 입력 정보를 사용자 정보 추출 모듈(2422)로 전달할 수 있으며, 사용자 정보 추출 모듈(2423)은 사용자로부터 입력 받은 지문 정보를 전자장치의 내부 또는 외부에 존재하는 사용자 데이터베이스(2450)와 비교하여 사용자를 인식하고, 해당 사용자의 결제 관련 정보, 예를 들어 사용자 이름, 연락처 정보, 배송지 정보, 카드 사용 히스토리 정보, 선호 상품 구매처 등의 정보 중 적어도 하나 이상의 정보를 읽어올 수 있다. 또한 결제 엔진(2420)은 압력이 인가된 시점의 화면 정보와 함께 터치 입력 좌표를 수신 받아 상품 정보 추출 모듈(2423)으로 전달 할 수 있다. 일 실시예에 따르면, 상품 정보 추출 모듈(2423)은 입력 받은 좌표를 중심으로 영상 인식, 이미지 비교 방법, 문자 인식 등의 방법을 통해 사용자가 선택한 오브젝트를 인식할 수 있으며, 이렇게 인식된 오브젝트에 대한 정보를 상품 데이터베이스(2460)에서 검색하여, 해당 상품의 가격 정보, 판매처 정보 등의 구매 관련 정보를 읽어올 수 있다. 일실시예에 따르면, 상품 정보 추출 모듈(2423)은 입력 받은 시점에 화면에 표시된 컨텐츠 정보를 수신하고, 해당 컨텐츠 내에 존재하는 태그 정보와 같은 부가 정보 읽어와 구매 관련 정보를 구별할 수 있다. 예를 들어, 사용자가 사진을 선택한 경우, 사진의 메타 태그(meta tag)에 존재하는 다양한 정보 중 상품 관련 정보를 읽어 올 수 있다. 결제 엔진(2420)은 읽어들인 상품 정보를 등록된 상품 데이터베이스(2460)와 비교할 수 있으며, 이를 통해 해당 상품의 가격 정보, 판매처 정보 등의 구매 관련 정보를 읽어올 수 있다. 일실시예에 따라, 사용자가 웹 페이지를 보던 중 오브젝트에 입력을 가했다면, 사용자 정보 추출 모듈(2423)의 오브젝트 인식기(2424)는 웹 페이지의 내부에 포함된 오브젝트를 인식하고, 태그 추출기(2425)는 오브젝트에 대한 부가정보 또는 태그 정보에서 오브젝트에 대응하는 상품에 관한 상품 관련 정보를 추출할 수 있으며, 이를 통해 해당 상품의 가격 정보, 판매처 정보 등의 구매 관련 정보를 읽어올 수 있다.
본 발명의 다양한 실시예에 따른 유저 인터페이스 생성 모듈(2430)은 결제 엔진(2420)이 전달해 준 정보를 이용해 화면을 구성하는 모듈로써, 실제 디스플레이를 통해 사용자에게 제공되는 화면을 1차적으로 생성하는 모듈이다. 유저 인터페이스 생성 모듈(2430)은 결제 엔진(2420)에서 특정한 상품 정보와 이에 대한 구매 정보를 포함하는 유저 인터페이스 화면을 동적으로 생성할 수 있다. 일실시예에 따라, 유저 인터페이스 생성 모듈(2430)은 메모리를 통해 결제 엔진(2420)에서 특정한 상품 정보 관계 있는 유사 정보를 함께 화면에 표시할 수도 있다. 또한 유저 인터페이스 생성 모듈(2430)은 배송지 정보, 연락처 정보와 같은 결제 관련 기본 정보를 상품 정보와 병합하여 화면에 표시할 수 있다. 유저 인터페이스 생성 모듈(2430)은 화면을 구성하기 위해 결제 엔진(2420)에서 수신된 정보를 저장되어 있는 기본 템플렛들 중 하나에 배치시키는 방법으로 통합 유저 인터페이스를 구성할 수도 있으며, 또 다른 방법으로는 화면을 분할하여 결제 페이지와 상품정보 페이지를 나누어 분리 유저 인터페이스를 제공해 줄 수 있다. 분리 유저 인터페이스의 경우에는 상품 정보를 표시하는 부분은 상품 제공 업체가 제공하는 상품 정보 페이지를 그대로 사용할 수 있으며, 결제 페이지의 경우에는, 해당 상품 제공 페이지와 연동될 수 있는 페이지로서 전자 장치가 상품 정보 페이지로부터 정보를 획득하여 구성할 수 있다.
일실시예에 따른 유저 인터페이스 생성 모듈(2430)은 결제 엔진(2420)으로부터 수신한 정보를 이용하여 화면을 구성할 수 있다. 일실시예에 따르면, 유저 인터페이스 생성 모듈(2430)은 결제 엔진(2420)에 의해 특정된 오브젝트에 대응하는 상품 정보와 이를 구매할 수 있는 구매처의 정보를 활용하여 유저 인터페이스를 구성하거나, 써드 파티(3rd party)에 의해 등록된 해당 페이지를 유저 인터페이스 상단부로 불러와 표시할 수 있으며, 결제 모듈을 통해 실제 결제를 수행할 수 있다. 여기서, 전자장치는 전자장치가 저장하고 있는 전자장치 정보 또는 사용자 계정 정보 등을 이용하여 상품 판매처에 로그인할 수 있다. 일실시예에 따른 결제 모듈(2420)은 실제 결제를 수행하는 모듈로써, 사용자의 결제 승인 입력에 대응하여 보안 영역에 저장된 결제 관련 정보를 이용해 실제 결제를 수행할 수 있다.
일실시예에 따른 결제 모듈(2440)은 상품의 결제를 처리하기 위해 결제 엔진(2420)이 제시하는 상품 정보를 유저 인터페이스 생성 모듈(2430)을 통해 해당 상품을 구매할 수 있도록 하는 구성을 유저 인터페이스를 통해 제공할 수 있으며, 저장된 결제 정보를 획득하여 MST / NFC 결제 시도를 시행 할 수 있다. 예를 들어 사용자가 의도하는 결제 동작은 저장된 결제 정보를 사용하여 외부 기기에 결제 정보를 발송함으로써 외부 기기와 연동하는 결제일 수 있고, 유저 인터페이스 생성 모듈에 의해 생성된 상품 정보 페이지를 보고 이를 구매하려는 결제 확정(Confirm)을 감지하여 해당 상품 구매 동작을 제공해 줄 수 있다. 일실시예에 따른 결제 모듈(2440)은 결제 진행 과정과 연동된 유저 인터페이스를 유저 인터페이스 생성 모듈(2430)에 요청할 수 있다. 예를 들어 유저 인터페이스 생성 모듈(2430)은 결제 모듈(2440)의 요청에 따라 결제가 진행 중인 상태의 정보를 포함하는 페이지를 생성하거나 완료된 웹 페이지를 생성하여 사용자에게 제공할 수 있다.
그리고 본 문서에 개시된 실시예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.
Claims (15)
- 전자 장치에 있어서,터치 스크린;상기 터치 스크린의 적어도 일부의 위치와 중첩되어 배치된 생체 센서; 및프로세서를 포함하고,상기 프로세서는,상기 생체 센서를 이용하여, 상기 터치 스크린을 통해 디스플레이되는 오브젝트에 대한 입력으로부터 사용자의 생체 정보를 획득하고,상기 오브젝트에 대한 결제 기능과 연관되는 결제 명령을 수신하고,상기 결제 명령에 따라, 상기 생체 정보를 이용하여 상기 오브젝트에 대응하는 상품에 대한 결제 기능을 수행하는 프로세서를 포함하는, 전자 장치.
- 제1항에 있어서,상기 프로세서는,상기 오브젝트를 포함하는 이미지를 상기 터치 스크린을 통해 디스플레이하고,상기 오브젝트에 대한 입력에 기초하여 상기 이미지로부터 상기 오브젝트를 인식하고,상기 인식된 오브젝트에 대한 결제 정보를 그래픽 유저 인터페이스를 통해 제공하는, 전자 장치.
- 제1항에 있어서,상기 프로세서는,상기 오브젝트에 대한 결제 정보를, 상기 오브젝트에 대한 결제 정보를 저장하는 메모리 또는 외부 서버로부터 수신하고,상기 수신된 결제 정보를 이용하여 상기 오브젝트에 대한 결제 기능을 수행하는, 전자 장치.
- 제1항에 있어서,적어도 하나의 센서를 더 포함하고,상기 프로세서는,상기 적어도 하나의 센서를 통해 상기 전자 장치가 미리 결정된 모션 패턴으로 움직인 것으로 판단되면, 상기 전자 장치의 모션 패턴을 상기 결제 명령으로 판단하는, 전자 장치.
- 제1항에 있어서,상기 프로세서는,상기 사용자의 오브젝트 구매 이력에 대한 메타 데이터 또는 상기 사용자의 정보 중 적어도 하나에 기초하여, 상기 오브젝트와 관련되는 적어도 하나의 다른 오브젝트에 대한 정보를 제공하는, 전자 장치.
- 제1항에 있어서,상기 오브젝트를 미리 결정된 일부의 화면 영역으로의 드래그하는 입력이 수신되면,상기 프로세서는 터치 스크린을 통해 상기 오브젝트를 상기 미리 결정된 일부의 화면 영역에 표시하고, 상기 일부의 화면 영역에 미리 결정된 동작이 수신되고 상기 오브젝트의 결제 기능과 연관되는 결제 명령이 수신되는 경우 상기 오브젝트를 결제하는, 전자 장치.
- 제1항에 있어서,상기 프로세서는,터치 스크린을 통해 상기 오브젝트가 포함된 동영상을 표시하고, 상기 오브젝트가 포함된 상기 동영상에 대한 사용자의 입력에 따라, 상기 동영상의 시간 정보 및 위치 정보에 연관되어 저장된 상기 오브젝트를 인식하는, 전자 장치.
- 제1항에 있어서,상기 프로세서는,카메라 어플리케이션이 실행되어 상기 터치 스크린을 통해 적어도 하나의 오브젝트가 표시되면, 상기 표시된 적어도 하나의 오브젝트 중 입력이 수신된 오브젝트를 인식하는, 전자 장치.
- 생체 센서를 이용하여, 터치 스크린을 통해 디스플레이되는 오브젝트에 대한 입력으로부터 사용자의 생체 정보를 획득하는 동작;상기 터치 스크린을 통해 디스플레이되는 상기 오브젝트의 결제 기능과 연관되는 결제 명령을 수신하는 동작; 및상기 오브젝트에 대응하는 상품에 대한 결제 명령에 따라, 상기 생체 정보를 이용하여 상기 오브젝트에 대응하는 상품을 결제하는 동작을 수행하는 동작을 포함하는, 결제를 수행하는 전자 장치를 제어하는 방법.
- 제9항에 있어서,상기 오브젝트를 포함하는 이미지를 상기 터치 스크린을 통해 디스플레이하는 동작;상기 오브젝트에 대한 입력에 기초하여 상기 이미지로부터 상기 오브젝트를 인식하는 동작; 및상기 인식된 오브젝트에 대응하는 상품에 대한 결제 정보를 그래픽 유저 인터페이스를 통해 제공하는 동작을 더 포함하는, 방법.
- 제9항에 있어서,상기 오브젝트에 대응하는 상품에 대한 결제 정보를, 상기 오브젝트에 대응하는 상품에 대한 결제 정보를 저장하는 메모리 또는 외부 서버로부터 수신하는 동작; 및상기 수신된 결제 정보를 이용하여 상기 오브젝트에 대응하는 상품에 대한 결제 기능을 수행하는 동작을 포함하는, 방법.
- 제9항에 있어서,적어도 하나의 센서를 통해 상기 전자 장치가 미리 결정된 모션 패턴으로 움직인 것으로 판단되면, 상기 전자 장치의 모션 패턴을 상기 결제 명령으로 판단하는 동작을 포함하는, 방법.
- 제9항에 있어서,상기 사용자의 오브젝트에 대응하는 상품에 대한 구매 이력에 대한 메타 데이터 및 상기 사용자의 정보 중 적어도 하나에 기초하여, 상기 오브젝트와 관련되는 적어도 하나의 다른 오브젝트에 대한 정보를 제공하는 동작을 포함하는, 방법.
- 제9항에 있어서,상기 오브젝트를 미리 결정된 일부의 화면 영역으로 드래그하는 입력을 수신하는 동작;상기 오브젝트를 터치 스크린을 통해 상기 미리 결정된 일부의 화면 영역에 표시하는 동작; 및상기 일부의 화면 영역에 미리 결정된 동작이 수신되고 상기 오브젝트에 대응하는 상품의 결제 기능과 연관되는 결제 명령이 수신되는 경우 상기 상품을 결제하는 동작을 포함하는, 방법.
- 제9항에 있어서,터치 스크린을 통해 상기 오브젝트가 포함된 동영상을 표시하는 동작; 및상기 오브젝트가 포함된 상기 동영상에 대한 사용자의 입력에 따라, 상기 동영상의 시간 정보 및 위치 정보에 연관되어 저장된 상기 오브젝트를 인식하는 동작을 포함하는, 방법.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16/496,797 US11710173B2 (en) | 2017-03-21 | 2018-03-21 | Electronic device for performing payment and operation method therefor |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2017-0035626 | 2017-03-21 | ||
| KR1020170035626A KR20180106772A (ko) | 2017-03-21 | 2017-03-21 | 결제를 수행하는 전자 장치 및 그 동작 방법 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018174551A1 true WO2018174551A1 (ko) | 2018-09-27 |
Family
ID=63586425
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2018/003276 Ceased WO2018174551A1 (ko) | 2017-03-21 | 2018-03-21 | 결제를 수행하는 전자 장치 및 그 동작 방법 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US11710173B2 (ko) |
| KR (1) | KR20180106772A (ko) |
| WO (1) | WO2018174551A1 (ko) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7361262B2 (ja) * | 2019-03-29 | 2023-10-16 | パナソニックIpマネジメント株式会社 | 精算決済装置および無人店舗システム |
| KR102326549B1 (ko) * | 2021-02-05 | 2021-11-16 | 쿠팡 주식회사 | 아이템 판매 정보 처리를 위한 장치 및 그 방법 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20140067882A (ko) * | 2012-11-27 | 2014-06-05 | 브이피 주식회사 | 단말기에서 생성된 식별 정보를 이용한 결제 방법 및 결제 중계 시스템 |
| KR20150097059A (ko) * | 2014-02-17 | 2015-08-26 | 크루셜텍 (주) | 지문 인증을 통한 결제 방법, 사용자 단말기 및 결제 중계 서버 |
| KR20160120408A (ko) * | 2015-04-07 | 2016-10-18 | 나이스정보통신주식회사 | 결제 단말기와 연결되는 새로운 핀테크 디바이스 |
| KR20170003193A (ko) * | 2015-06-30 | 2017-01-09 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
| KR20170017279A (ko) * | 2015-08-06 | 2017-02-15 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
Family Cites Families (25)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20080142589A1 (en) * | 2006-12-13 | 2008-06-19 | Cummings Scott A | One Touch Purchase Device and System |
| US20160342995A9 (en) | 2008-06-06 | 2016-11-24 | Ebay Inc. | Biometric authentication of mobile financial transactions by trusted service managers |
| AU2010306907A1 (en) * | 2009-10-13 | 2012-09-13 | Ezsav Inc. | Apparatuses, methods, and computer program products enabling association of related product data and execution of transaction |
| US20120253907A1 (en) * | 2011-04-04 | 2012-10-04 | Myworld, Inc. | Commerce System and Method of Controlling the Commerce System by Generating Individualized Discounted Discounted Offers to Consumers |
| KR101873415B1 (ko) | 2011-09-08 | 2018-07-02 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
| US9916538B2 (en) * | 2012-09-15 | 2018-03-13 | Z Advanced Computing, Inc. | Method and system for feature detection |
| US10650442B2 (en) * | 2012-01-13 | 2020-05-12 | Amro SHIHADAH | Systems and methods for presentation and analysis of media content |
| KR101660463B1 (ko) | 2012-06-25 | 2016-10-10 | 에스케이플래닛 주식회사 | 컨텐츠 추천 시스템 및 방법 |
| KR102186242B1 (ko) * | 2013-02-28 | 2020-12-03 | 엘지전자 주식회사 | 멀티미디어 커머스 서비스 처리 장치 및 방법 |
| US9582789B2 (en) * | 2013-03-15 | 2017-02-28 | Google Inc. | Payments in communication systems |
| US20140359757A1 (en) * | 2013-06-03 | 2014-12-04 | Qualcomm Incorporated | User authentication biometrics in mobile devices |
| US9324067B2 (en) * | 2014-05-29 | 2016-04-26 | Apple Inc. | User interface for payments |
| KR102287160B1 (ko) * | 2014-07-31 | 2021-08-06 | 엘지전자 주식회사 | 웨어러블 디바이스 및 그것의 제어방법 |
| KR20160016397A (ko) | 2014-08-05 | 2016-02-15 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
| WO2016073961A1 (en) | 2014-11-07 | 2016-05-12 | Paypal, Inc. | Payment processing apparatus |
| KR102290892B1 (ko) | 2014-12-12 | 2021-08-19 | 엘지전자 주식회사 | 이동단말기 및 그것의 제어방법 |
| US9817846B1 (en) * | 2015-03-04 | 2017-11-14 | Amazon Technologies, Inc. | Content selection algorithms |
| US20160260080A1 (en) * | 2015-03-06 | 2016-09-08 | Lg Electronics Inc. | Terminal and operating method thereof |
| US10021458B1 (en) * | 2015-06-26 | 2018-07-10 | Amazon Technologies, Inc. | Electronic commerce functionality in video overlays |
| KR102407414B1 (ko) | 2015-08-25 | 2022-06-10 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
| KR101781909B1 (ko) * | 2015-09-15 | 2017-09-26 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
| KR101779506B1 (ko) * | 2015-10-20 | 2017-09-18 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
| KR101660803B1 (ko) | 2016-05-03 | 2016-09-28 | 아이피랩 주식회사 | 정보 제공 장치 및 그 방법 |
| US10621581B2 (en) * | 2016-06-11 | 2020-04-14 | Apple Inc. | User interface for transactions |
| KR102711594B1 (ko) * | 2017-02-17 | 2024-09-30 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
-
2017
- 2017-03-21 KR KR1020170035626A patent/KR20180106772A/ko not_active Ceased
-
2018
- 2018-03-21 US US16/496,797 patent/US11710173B2/en active Active
- 2018-03-21 WO PCT/KR2018/003276 patent/WO2018174551A1/ko not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20140067882A (ko) * | 2012-11-27 | 2014-06-05 | 브이피 주식회사 | 단말기에서 생성된 식별 정보를 이용한 결제 방법 및 결제 중계 시스템 |
| KR20150097059A (ko) * | 2014-02-17 | 2015-08-26 | 크루셜텍 (주) | 지문 인증을 통한 결제 방법, 사용자 단말기 및 결제 중계 서버 |
| KR20160120408A (ko) * | 2015-04-07 | 2016-10-18 | 나이스정보통신주식회사 | 결제 단말기와 연결되는 새로운 핀테크 디바이스 |
| KR20170003193A (ko) * | 2015-06-30 | 2017-01-09 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
| KR20170017279A (ko) * | 2015-08-06 | 2017-02-15 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20180106772A (ko) | 2018-10-01 |
| US20200380592A1 (en) | 2020-12-03 |
| US11710173B2 (en) | 2023-07-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108153446B (zh) | 包含显示器的电子装置以及制造显示器的方法 | |
| KR102620138B1 (ko) | 화면 출력 방법 및 이를 지원하는 전자 장치 | |
| KR102303665B1 (ko) | 플러그인 서비스를 포함하는 결제 서비스 제공 방법 및 그 전자장치 | |
| WO2017135599A1 (ko) | 외부 전자 장치를 제어하기 위한 방법 및 전자 장치 | |
| WO2017010792A1 (en) | Card registration method for payment service and mobile electronic device implementing the same | |
| WO2017179905A1 (ko) | 플렉서블 디바이스 및 그 동작 방법 | |
| KR102469569B1 (ko) | 전자 장치 및 그의 동작 방법 | |
| KR102588524B1 (ko) | 전자 장치 및 그의 동작 방법 | |
| WO2017116052A1 (ko) | 컨텐트 인식 장치 및 그 동작 방법 | |
| WO2017146482A1 (ko) | 음성 인식 제어를 제공하는 전자 장치 및 그 동작 방법 | |
| KR20180081380A (ko) | 지문을 감지하는 전자 장치 및 방법 | |
| KR20180089810A (ko) | 전자 장치 및 전자 장치의 터치 좌표 판단 방법 | |
| WO2017034225A1 (en) | Electronic apparatus and method of transforming content thereof | |
| KR20170065904A (ko) | 콘텐트 프리로딩 방법 및 이를 지원하는 전자 장치 | |
| WO2017111313A1 (ko) | 웹푸시를 이용한 푸시 서비스 제공 방법 및 이를 지원하는 전자 장치 | |
| WO2018021764A1 (ko) | 어플리케이션에 대한 알림을 관리하는 방법 및 그 전자 장치 | |
| EP3447673B1 (en) | Electronic device and control method therefor | |
| WO2018093117A1 (en) | Electronic device and remittance method thereof | |
| WO2017164669A1 (ko) | 결제 정보를 제공하는 전자 장치 및 방법 | |
| WO2018048225A1 (ko) | 결제 서비스를 제공하는 전자 장치 및 방법 | |
| WO2017135764A1 (ko) | 애플리케이션을 상호 연동하는 전자 장치 및 이를 위한 방법 | |
| WO2018128320A1 (ko) | 전자 장치 및 그의 음성을 이용한 통신 연결 방법 | |
| KR20180046032A (ko) | 전자 장치 및 그의 동작 방법 | |
| WO2018174551A1 (ko) | 결제를 수행하는 전자 장치 및 그 동작 방법 | |
| WO2018080210A1 (ko) | 가이드를 출력하는 전자 장치 및 방법 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18771606 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18771606 Country of ref document: EP Kind code of ref document: A1 |