WO2013047271A1 - 携帯型電子機器、タッチ領域設定方法およびタッチ領域設定プログラム - Google Patents
携帯型電子機器、タッチ領域設定方法およびタッチ領域設定プログラム Download PDFInfo
- Publication number
- WO2013047271A1 WO2013047271A1 PCT/JP2012/073838 JP2012073838W WO2013047271A1 WO 2013047271 A1 WO2013047271 A1 WO 2013047271A1 JP 2012073838 W JP2012073838 W JP 2012073838W WO 2013047271 A1 WO2013047271 A1 WO 2013047271A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- touch
- finger
- unit
- area
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/169—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
- G06F1/1692—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
- G06F3/041661—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving using detection at multiple resolutions, e.g. coarse and fine scanning; using detection within a limited area, e.g. object tracking window
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Definitions
- the present invention relates to a portable electronic device, a touch area setting method, and a touch area setting program.
- the portable terminal described in Patent Document 1 is a portable terminal having a touch panel, and has an arrangement unit that arranges items such as keys and icons on the touch panel, and is operated on or around the touch panel.
- the sensor further includes a sensor for detecting the position of the user's finger, and the disposing unit arranges the item in the vicinity of the position of the finger according to the position of the user's finger operated by the sensor.
- a touch area (“item” in Patent Document 1) that accepts a touch operation as a predetermined input operation is set (arranged)
- the area that can be operated with a hand that holds the portable electronic device is more accurately If it can be grasped, the touch area can be set more appropriately. For example, when the operable area is large, more icons can be displayed in the area, or each icon can be displayed larger.
- An object of the present invention is to provide a portable electronic device, a touch area setting method, and a touch area setting program that can solve the above-described problems.
- a portable electronic device which includes a touch sensor for detecting a touch position, and the portable type device.
- a touch sensor for detecting a touch position
- the portable type device includes a touch sensor for detecting a touch position, and the portable type device.
- a fulcrum position detection unit that detects a fulcrum position of a finger when moving a finger while holding an electronic device
- a finger length acquisition unit that acquires the length of the finger
- a touch area setting unit that sets a touch area for receiving a touch operation as a predetermined input operation within a movable range of the finger determined based on the fulcrum position of the finger and the length of the finger.
- a touch area setting method is a touch area setting method for a portable electronic device provided with a touch sensor for detecting a touch position, and a finger is held while holding the portable electronic device.
- a fulcrum position detecting step for detecting a fulcrum position of the finger when moving the finger
- a finger length acquiring step for acquiring the length of the finger
- a touch area setting step for setting a touch area for receiving a touch operation as a predetermined input operation within a movable range of the finger determined based on the length of the finger.
- a touch area setting program is used when a finger is moved to a computer as a portable electronic device having a touch sensor that detects a touch position while holding the portable electronic device.
- a fulcrum position detecting step for detecting a fulcrum position of the finger; a finger length acquiring step for acquiring the length of the finger; and a fulcrum position of the finger and a length of the finger in an area where the touch sensor can detect a touch.
- This is a program for executing a touch area setting step for setting a touch area for accepting a touch operation as a predetermined input operation within a movable range of a finger determined based on the touch area.
- FIG. 5 is a flowchart illustrating an operation when a movable range acquisition unit acquires a movable range of a thumb in the first embodiment of the present invention.
- 5 is a flowchart illustrating an operation when an application processing unit displays an icon indicating a touch area on a display screen of a display unit in the first embodiment of the present invention.
- the 2nd Embodiment of this invention it is a figure which shows the example of the touch area
- the 2nd Embodiment of this invention it is a figure which shows the example which set the touch area
- a first embodiment of a portable terminal device according to the present invention will be described with reference to the drawings.
- the present invention can be applied to various mobile terminal devices such as mobile phones and mobile information terminal devices.
- the application range of the present invention is not limited to the portable terminal device.
- the present invention can be applied to various portable information devices such as a stand-alone (that is, not a terminal) game machine and an electronic dictionary.
- FIG. 1 is a block diagram showing a functional configuration of the mobile terminal device according to the first embodiment of the present invention.
- the mobile terminal device 100 includes a display unit 110, an operation input unit 120, a side sensor unit 130, a voice input unit 141, a voice output unit 142, a wireless communication unit 150, a control unit 180, A storage unit 190 and a CPU (Central processing unit, not shown) are provided.
- the operation input unit 120 includes a front surface touch sensor (touch sensor) 121.
- the control unit 180 includes a display control unit 210, an input processing unit 220, a finger length acquisition unit 225, a fulcrum position detection unit 230, a movable range acquisition unit 235, a voice processing unit 240, a communication control unit 250, And an application processing unit (touch area setting unit) 290.
- the mobile terminal device 100 may be, for example, a mobile information terminal device, and provides various functions such as an Internet browsing function and an electronic mail function in accordance with a user operation.
- the display unit 110 has a display screen such as a liquid crystal display or an organic EL (Organic Electro-Luminescence) display, and displays various images such as moving images, still images, and text (characters) according to the control of the display control unit 210. be able to.
- the operation input unit 120 receives a user operation with the front touch sensor 121 provided on the display screen of the display unit 110. That is, the display screen of the display unit 110 and the touch sensor 121 of the operation input unit 120 constitute a touch panel.
- the operation input unit 120 detects a touch operation on the display screen of the display unit 110, the operation input unit 120 outputs a signal indicating a touch position (a touched position on the display screen) to the input processing unit 220.
- the audio input unit 141 has a microphone, collects ambient sounds, converts them into audio signals, and outputs them to the audio processing unit 240.
- the audio output unit 142 includes a speaker, and converts the audio signal output from the audio processing unit 240 as an analog electric signal into audio and outputs the audio.
- the side sensor unit 130 includes a sensor provided on the side surface of the mobile terminal device 100, and the position of the user's hand that contacts the side surface of the mobile terminal device 100 when the user grips the housing of the mobile terminal device 100. To detect.
- the side sensor unit 130 includes an energization sensor, and detects the position of the user's hand by detecting current conduction in the user's hand when the user's hand contacts the energization sensor.
- the sensor of the side sensor unit 130 is not limited to the energization sensor, and may be any sensor that can detect the position of the user's hand.
- the side sensor unit 130 may include a pressure sensor, and the position of the user's hand may be detected by detecting the pressure applied from the user's hand holding the casing of the mobile terminal device 100.
- the wireless communication unit 150 connects to a mobile phone communication network (a wireless communication network for mobile phones provided by a communication carrier) by communicating with a wireless base station. Specifically, the wireless communication unit 150 performs modulation processing on the signal output from the communication control unit 250 and transmits the signal as a wireless signal, and performs demodulation processing on the received wireless signal to perform communication. Output to the controller 250. For example, the wireless communication unit 150 can transmit and receive e-mail data using a wireless signal.
- a mobile phone communication network a wireless communication network for mobile phones provided by a communication carrier
- the control unit 180 controls each unit of the mobile terminal device 100 to execute various functions.
- the control unit 180 is realized by, for example, a CPU (not shown) of the mobile terminal device 100 reading and executing a program from the memory of the mobile terminal device 100.
- the display control unit 210 controls the display unit 110 to display various images. Specifically, the display control unit 210 generates a screen display signal based on moving image data, still image data, text data, or the like output from the application processing unit 290 and outputs the screen display signal to the display unit 110. Then, an image is displayed on the display screen of the display unit 110.
- the input processing unit 220 outputs a signal corresponding to the operation received by the operation input unit 120 to the application processing unit 290. For example, when the display unit 110 displays an icon (Icon) and the signal indicating the touch position on the display screen of the display unit 110 is output from the operation input unit 120, the input processing unit 220 touches the icon. It is determined whether or not it has been done. When the input processing unit 220 determines that the icon has been touched, the input processing unit 220 outputs information indicating the touched icon to the application processing unit 290.
- the icon here is an image symbolizing an object to be selected or designated, such as a file, folder, application program or function.
- the finger length acquisition unit 225 acquires the length of the user's thumb.
- the mobile terminal device 100 has a thumb length input mode that accepts an input of the thumb length, and the finger length acquisition unit 225 displays a centimeter (cm) on the display screen of the display unit 110 in the thumb length input mode.
- the length of the thumb handwritten in units is detected, and the thumb length is written in the storage unit 190.
- the finger length acquisition unit 225 acquires the thumb length by reading the thumb length from the storage unit 190.
- the fulcrum position detection unit 230 detects the fulcrum position of the thumb when the user moves the thumb while holding the mobile terminal device 100. A method by which the fulcrum position detection unit 230 detects the fulcrum position of the thumb will be described later.
- the movable range acquisition unit 235 obtains a range within which the front touch sensor 121 of the operation input unit 120 can detect a touch, in which the thumb of the hand holding the casing of the mobile terminal device 100 can reach.
- a range in which the thumb of the hand holding the casing of the mobile terminal device 100 can reach is referred to as a “thumb movable range”.
- a range in which any finger can reach is referred to as a “finger movable range”.
- the movable range acquisition unit 235 obtains the movable range of the thumb based on the fulcrum position of the thumb detected by the fulcrum position detection unit 230 and the thumb length acquired by the finger length acquisition unit 225.
- the audio processing unit 240 converts the audio data output from the application processing unit 290 into an electric signal and outputs the electric signal to the audio output unit 142, thereby causing the audio output unit 142 to output audio.
- the voice processing unit 240 converts an electrical signal output by the voice input unit 141 to collect and output voice to voice data, and outputs the voice data to the application processing unit 290.
- the communication control unit 250 performs processing such as encoding on the data output from the application processing unit 290, outputs the data to the wireless communication unit 150, modulates the data, and transmits the data as a wireless signal. In addition, the communication control unit 250 performs processing such as decoding on the signal received and demodulated by the wireless communication unit 150 to extract data, and outputs the data to the application processing unit 290. For example, the communication control unit 250 performs processing such as encoding on the e-mail data output from the application processing unit 290 and outputs the encoded data to the wireless communication unit 150. The communication control unit 250 also receives the signal received and demodulated by the wireless communication unit 150. Data such as e-mail data is extracted by performing processing such as decryption, and is output to the application processing unit 290.
- the application processing unit 290 executes an application (that is, executes an application program) and provides various functions such as an Internet browsing function and an electronic mail function.
- the application processing unit 290 performs a touch operation as a predetermined input operation within the movable range of the thumb obtained by the movable range acquisition unit 235 in the region where the front touch sensor 121 of the operation input unit 120 can detect a touch.
- Set the touch area to accept For example, the application processing unit 290 displays an icon as a push button (input key) for accepting a user input operation within the movable range of the thumb on the display screen of the display unit 110.
- the storage unit 190 is realized by a storage area of a memory included in the mobile terminal device 100, for example, and stores various data.
- the storage unit 190 stores the length of the thumb detected by the finger length acquisition unit 225.
- the storage unit 190 stores various programs executed by the CPU included in the mobile terminal device 100 in advance.
- FIG. 2 is a perspective view showing an outline of the outer shape of the mobile terminal device 100 as viewed from the front side.
- a display screen of the display unit 110 and a touch panel type display screen configured by a touch sensor of the operation input unit 120 (front touch sensor 121), and an audio input unit 141.
- a speaker of the audio output unit 142 are provided.
- a sensor of the side sensor unit 130 is provided on each side of the casing of the mobile terminal device 100.
- FIG. 3 is a diagram illustrating an example of the movable range of the thumb acquired by the movable range acquisition unit 235.
- FIG. 3 shows an example in which the user holds the casing of the mobile terminal device 100 with both hands and operates the touch panel on the front surface of the casing with the thumb.
- the side E ⁇ b> 101 is a left-hand side on the front surface of the casing of the mobile terminal device 100.
- the side E102 is a right-hand side on the front surface of the casing of the mobile terminal device 100.
- Point P101 is the fulcrum position of the left thumb detected by the fulcrum position detection unit 230.
- the point P102 is the fulcrum position of the right thumb detected by the fulcrum position detection unit 230.
- the length L101 indicates the length of the thumb acquired by the finger length acquisition unit 225.
- a region A111 is a movable range of the left thumb acquired by the movable range acquisition unit 235.
- Region A112 is a movable range of the right thumb acquired by the movable range acquisition unit 235.
- the area A121 and the area A122 are touch areas indicated by icons displayed on the display screen of the display unit 110 by the application processing unit 290. Further, the area A131 is an area where the left thumb is in contact with the side E101. The area A132 is an area where the right thumb is in contact with the side E102.
- the fulcrum position detection unit 230 detects the fulcrum position (point P101) of the left thumb and the fulcrum position (point P102) of the right thumb based on the position of the user's hand detected by the side sensor unit 130. For example, the fulcrum position detection unit 230 acquires the position of the region (A131) in contact with the side E101 among the positions of the user's hand detected by the side sensor unit 130, for example, using coordinates on the front surface of the casing of the mobile terminal device 100. To do. The fulcrum position detection unit 230 detects the center of the region A131 (the center point of the line segment) as the fulcrum position (point P101) of the left thumb.
- the fulcrum position detection unit 230 acquires the position of the region (A132) in contact with the side E102 among the positions of the user's hand detected by the side sensor unit 130. Then, the fulcrum position detection unit 230 detects the center of the region A132 as the fulcrum position (point P102) of the right thumb.
- the movable range acquisition unit 235 is centered on the fulcrum position of the left thumb (point P101) in the display screen region of the display unit 110 (that is, the region where the operation input unit 120 can detect a touch), and the length of the thumb.
- An area (area A111) overlapping with a circle having a radius (length L101) as a radius is acquired (set) as the movable range of the left thumb.
- the movable range acquisition unit 235 overlaps a circle whose center is the fulcrum position (point P102) of the right thumb and whose radius is the length of the thumb (length L101) in the display screen area of the display unit 110.
- the area (area A112) is acquired (set) as the movable range of the right thumb.
- the application processing unit 290 sets a touch area that receives a touch operation as a predetermined input operation within the movable range of the left thumb or the right thumb of the display screen area of the display unit 110.
- the application processing unit 290 displays the push button A icon (A 121) and the push button B icon (A 122) within the movable range of the left thumb.
- the display area of these icons is set to a touch area that accepts a touch operation of pressing a push button.
- FIG. 4 is a flowchart showing the operation of the mobile terminal device 100 when the movable range acquisition unit 235 acquires the movable range of the thumb.
- the mobile terminal device 100 starts the processing in FIG. 4 when the execution of the application is started.
- the finger length acquisition unit 225 acquires the thumb length by reading information indicating the thumb length from the storage unit 190 (step S ⁇ b> 101).
- the fulcrum position detection unit 230 detects the fulcrum position of the thumb based on the position of the user's hand detected by the side sensor unit 130 (step S102).
- the side sensor unit 130 detects the position where the user's hand contacts both the left hand side and the right hand side, and the fulcrum position
- the detection unit 230 detects the fulcrum position of the thumb for both the left hand and the right hand.
- the side sensor unit 130 detects the position where the user's hand contacts only on the hand side, and the fulcrum position detection unit 230
- the fulcrum position of the thumb is detected for the hand.
- the position where the side sensor unit 130 contacts the user's hand only on the right side of the casing side E102 side in the example of FIG. 3
- the fulcrum position detection unit 230 detects the fulcrum position of the right thumb based on the detected position.
- the movable range acquisition unit 235 displays the thumb in the display screen area of the display unit 110. Is obtained (step S103).
- step S102 when the fulcrum position detection unit 230 detects the fulcrum position of the thumb for both the left hand and the right hand, the movable range acquisition unit 235 acquires the movable range of the thumb for both the left hand and the right hand. To do.
- the movable range acquisition unit 235 acquires the movable range of the thumb of the hand. Thereafter, the process of FIG.
- the timing at which the mobile terminal device 100 starts the processing in FIG. 4 is not limited to the time when the above-described application execution is started.
- the mobile terminal device 100 may start the process of FIG. 4 when displaying the icon of the operation key in executing the application.
- the movable range acquisition unit 235 can appropriately detect the movable range of the thumb. Therefore, the application processing unit 290 can set the touch area at a position where the user can easily perform a touch operation.
- FIG. 5 is a flowchart illustrating the operation of the mobile terminal device 100 when the application processing unit 290 displays an icon indicating a touch area on the display screen of the display unit 110.
- the portable terminal device 100 starts the process of FIG. 5 when displaying the icon of the operation key in executing the application.
- the application processing unit 290 sets a touch area within the movable range of the thumb set by the movable range acquisition unit 235 in the display screen area of the display unit 110 (step S201). .
- the application processing unit 290 acquires an image of an icon indicating a touch area (for example, a push button icon), and displays the acquired icon image on the touch area set in step S201 (step S202).
- the application processing unit 290 acquires an icon image by reading an icon image stored in advance in the storage unit 190, and displays an instruction signal for displaying the acquired icon image on the touch area set in step S201.
- the data is output to the display control unit 210.
- the display control unit 210 controls the display unit 110 according to the instruction signal to display the acquired icon image on the touch area on the display screen. Thereafter, the process of FIG.
- the finger length acquisition unit 225 acquires the thumb length
- the fulcrum position detection unit 230 determines the fulcrum position of the finger when the user moves the finger while holding the mobile terminal device 100.
- the application processing unit 290 has a predetermined input within a movable range of the finger determined based on the fulcrum position of the thumb and the length of the thumb in the area where the front touch sensor 121 of the operation input unit 120 can detect a touch.
- a touch area for accepting a touch operation as an operation is set. As a result, it is possible to more appropriately set a touch area that accepts a touch operation as a predetermined input operation.
- the mobile terminal device 100 (movable range acquisition unit 235) can acquire the movable range of the thumb more accurately based on the length of the thumb and the fulcrum position of the thumb. And the portable terminal device 100 (application process part 290) can set a touch area
- the portable terminal device 100 can prevent erroneous detection of a touch operation by setting the touch area within the movable range of the thumb.
- the touch detected outside the movable range of the thumb is considered to be a touch unintentionally performed by the user other than the user's finger, such as a touch performed by accidental contact of a tie or hair.
- the touch detected outside the movable range of the thumb may be a touch unintended by the user other than the user's finger. high. Therefore, the portable terminal device 100 ignores the touch detected outside the movable range of the thumb by limiting the position where the touch area is set within the movable range of the thumb (that is, performs processing on the touch). No) and erroneous detection of touch operations can be prevented.
- FIG. 6 is a block diagram showing a functional configuration of the mobile terminal device according to the second embodiment of the present invention.
- the mobile terminal device 300 includes a first display unit 311, a second display unit 312, a first operation input unit 321, a second operation input unit 322, a side sensor unit 130, and a voice input unit 141.
- the first operation input unit 321 includes a front touch sensor 326.
- the second operation input unit 322 includes a back surface touch sensor 327.
- the control unit 380 includes a display control unit 410, an input processing unit 420, a finger length acquisition unit 425, a fulcrum position detection unit 430, a movable range acquisition unit 435, a voice processing unit 240, a communication control unit 250, An inclination detection unit 460 and an application processing unit (touch area setting unit, processing unit) 490 are provided. 6, parts having the same functions corresponding to the respective parts in FIG. 1 are denoted by the same reference numerals (130, 141, 142, 150, 190, 240, 250), and description thereof is omitted.
- the portable terminal device 300 is, for example, a portable information terminal device, similar to the portable terminal device 100 (FIG. 1), and provides various functions such as an Internet browsing function and an electronic mail function according to a user operation.
- the mobile terminal device 300 is different from the mobile terminal device 100 in that the touch sensor (back touch sensor 327) is also provided on the back surface.
- the first display unit 311 has a display screen such as a liquid crystal display or an organic EL (Organic Electro-Luminescence) display on the front surface of the housing of the mobile terminal device 300, and a moving image or a still image is controlled according to the control of the display control unit 410.
- Various images such as text and text are displayed.
- the second display unit 312 has a display screen such as a liquid crystal display or an organic EL (Organic Electro-Luminescence) display on the back surface of the casing of the mobile terminal device 300, and a moving image or a still image is controlled according to the control of the display control unit 410.
- Various images such as text and text are displayed.
- the first operation input unit 321 includes a touch sensor (front touch sensor 326) provided on the display screen of the first display unit 311 and receives a user operation. That is, the display screen of the first display unit 311 and the front touch sensor 326 of the first operation input unit 321 constitute a touch panel.
- the first operation input unit 321 When detecting a touch operation on the display screen of the first display unit 311, the first operation input unit 321 outputs a signal indicating a touch position (a touched position on the display screen) to the input processing unit 420.
- the second operation input unit 322 includes a touch sensor (back surface touch sensor 327) provided on the display screen of the second display unit 312 and receives a user operation. That is, the display screen of the second display unit 312 and the back touch sensor 327 of the second operation input unit 322 constitute a touch panel.
- the touch sensor included in the second operation input unit 322 may be a touch sensor of a touch pad provided on the rear surface of the casing of the mobile terminal device 300. That is, when the mobile terminal device 300 does not include the second display unit 312, a touch pad may be provided on the back surface of the housing instead of having a display screen on the back surface of the housing.
- the second operation input unit 322 detects a touch operation on the display screen of the second display unit 312, the second operation input unit 322 outputs a signal indicating a touch position (a touched position on the display screen) to the input processing unit 420.
- the gravity sensor unit 360 has a gravity sensor (acceleration sensor) inside the casing, and detects the vertical downward by detecting the gravity acceleration.
- the control unit 380 controls each unit of the mobile terminal device 300 to execute various functions.
- the control unit 380 is realized by, for example, a CPU (Central Processing Unit) that the mobile terminal device 300 has reads out and executes a program from the memory that the mobile terminal device 300 has.
- a CPU Central Processing Unit
- the display control unit 410 controls the first display unit 311 and the second display unit 312 to display various images on each. Specifically, the display control unit 410 generates a screen display signal based on moving image data, still image data, text data, or the like output from the application processing unit 490 and outputs the generated signal to the first display unit 311. As a result, an image is displayed on the display screen of the first display unit 311, and a screen display signal is similarly generated and output to the second display unit 312, whereby the image is displayed on the display screen of the second display unit 312. Display.
- the input processing unit 420 outputs a signal corresponding to the operation received by the first operation input unit 321 or the second operation input unit 322 to the application processing unit 490. For example, the input processing unit 420 outputs a signal indicating the touch position on the display screen of the first display unit 311 from the first operation input unit 321 while the first display unit 311 displays an icon. It is determined whether or not the icon is touched. When the input processing unit 420 determines that the icon has been touched, the input processing unit 420 outputs information indicating the touched icon to the application processing unit 490.
- the finger length acquisition unit 425 acquires the length of the thumb, similar to the finger length acquisition unit 225 of FIG. In addition, the finger length acquisition unit 425 acquires the length of at least one of the user's index finger, middle finger, ring finger, or little finger.
- the mobile terminal device 300 has a finger length input mode that accepts input of the lengths of the thumb, index finger, middle finger, ring finger, and little finger, and the finger length acquisition unit 425 performs the first display in the finger length input mode.
- the length of each finger handwritten in centimeters (cm) is detected on the display screen of the unit 311 and the length of each finger is written in the storage unit 190. Then, the finger length acquisition unit 425 acquires the length of each finger by reading the length of each finger from the storage unit 190.
- the fulcrum position detection unit 430 detects the fulcrum position of the thumb when the user moves the thumb while holding the mobile terminal device 300.
- the fulcrum position detection unit 430 detects the fulcrum position of the finger when the user moves at least one of the index finger, the middle finger, the ring finger, or the little finger while holding the mobile terminal device 300.
- a method by which the fulcrum position detection unit 430 detects the fulcrum position of the index finger, middle finger, ring finger, or little finger will be described later.
- the movable range acquiring unit 435 obtains the movable range of the thumb in the region where the front touch sensor 326 of the first operation input unit 321 can detect a touch.
- the movable range acquisition unit 435 allows the user to use the housing of the mobile terminal device 300 for at least one of the index finger, the middle finger, the ring finger, and the little finger in the area where the back touch sensor 327 of the second operation input unit 322 can detect a touch. Find the reach of the fingers of the hand holding the body.
- a range in which the finger of the hand holding the casing of the mobile terminal device 300 reaches is referred to as a “movable range” of the finger.
- the movable range acquisition unit 435 obtains the movable range of the finger based on the fulcrum position of the finger detected by the fulcrum position detection unit 430 and the finger length acquired by the finger length acquisition unit 425.
- the tilt detection unit 460 detects the tilt of the casing of the mobile terminal device 300 by calculating the difference between the reference orientation in the casing of the mobile terminal device 300 and the vertical downward direction detected by the gravity sensor unit 360.
- the inclination detection unit 460 uses the vertical orientation when the casing of the mobile terminal device 300 is placed horizontally on a horizontal surface as the reference orientation in the casing of the mobile terminal device 300, and the reference orientation and gravity. By calculating the difference from the vertical downward direction detected by the sensor unit 360, the horizontal tilt of the casing of the mobile terminal device 300 is detected.
- the application processing unit 490 executes an application program and provides various functions such as an Internet browsing function and an electronic mail function. Similar to the application processing unit 290 in FIG. 1, the application processing unit 490 is within the movable range of the thumb determined by the movable range acquisition unit 435 in the region where the front touch sensor 326 of the first operation input unit 321 can detect a touch. Then, a touch area for accepting a touch operation as a predetermined input operation is set. In addition, the application processing unit 490 obtains at least one of the index finger, the middle finger, the ring finger, and the little finger among the regions in which the back touch sensor 327 of the second operation input unit 322 can detect a touch. A touch area for accepting a touch operation as a predetermined input operation is set within a movable range of the finger.
- FIG. 7 is a perspective view showing an outline of the outer shape of the mobile terminal device 300 as viewed from the front side.
- the outer shape in FIG. 7 is the same as the outer shape of the mobile terminal device 100 in FIG. 2, the display screen of the first display unit 311 and the touch sensor (front surface) of the first operation input unit 321 on the front surface of the casing of the mobile terminal device 300.
- a touch panel display screen configured by the touch sensor 326), a microphone of the voice input unit 141, and a speaker of the voice output unit 142 are provided.
- a sensor of the side sensor unit 130 is provided on each side of the casing of the mobile terminal device 300.
- FIG. 8 is a perspective view showing an outline of the outer shape of the mobile terminal device 300 as viewed from the back side.
- a touch panel display screen configured by a display screen of the second display unit 312 and a touch sensor (rear touch sensor 327) of the second operation input unit 322 is provided on the rear surface of the casing of the mobile terminal device 300. It has been.
- the sensor of the side sensor unit 130 is provided on each side of the casing of the mobile terminal device 300.
- the display screen of the second display unit 312 shown in FIG. 8 is arranged on the back side with the display screen of the first display unit 311 shown in FIG. 7 as the front side.
- FIG. 9 is an explanatory diagram illustrating an example of the movable range of the finger acquired by the movable range acquisition unit 435.
- FIG. 9 shows an example in which the user holds the casing of the mobile terminal device 300 with both hands and touches the touch panel on the back of the casing with the middle finger.
- the side E201 is a side on the left hand side on the back surface of the casing of the mobile terminal device 300.
- the side E202 is a right-hand side on the rear surface of the casing of the mobile terminal device 300.
- Point P201 is a fulcrum position of the middle finger of the left hand detected by fulcrum position detection unit 430.
- Point P202 is a fulcrum position of the middle finger of the right hand detected by the fulcrum position detection unit 430.
- the length L201 indicates the length of the middle finger acquired by the finger length acquisition unit 425.
- a region A211 is a movable range of the middle finger of the left hand acquired by the movable range acquisition unit 435.
- a region A212 is a movable range of the middle finger of the right hand acquired by the movable range acquisition unit 435.
- the finger length acquisition unit 425 has acquired the length of only one of the index finger, middle finger, ring finger, or little finger (that is, the storage unit 190 is one of the index finger, middle finger, ring finger, or little finger).
- the fulcrum position detection unit 430 detects the fulcrum position of the finger.
- the finger performing the touch operation is expected to be closer to the housing body than the other fingers in order to contact the touch panel.
- the fulcrum position detection unit 430 detects the fulcrum position of the finger, and the movable range acquisition unit 435 detects the position of the viewpoint.
- the movable range of the finger is acquired based on the above.
- the fulcrum position detection unit 430 detects the center of the area where the finger is in contact with the side 201 as the fulcrum position (P201) of the finger.
- the side sensor unit 130 makes contact with only one finger at the side E202.
- the fulcrum position detection unit 430 detects the fulcrum position of the finger.
- the movable range acquisition unit 435 detects the fulcrum position detected by the fulcrum position detection unit 430 in the region in which the second operation input unit 322 can detect a touch (point P201, which is the fulcrum position of the left middle finger in the example of FIG. Further, a region (region) overlapping with a circle whose center is the point P202 which is the fulcrum position of the middle finger of the right hand and whose radius is the finger length (middle finger length L201 in the example of FIG. 9) acquired by the finger length acquisition unit 425. A211 and A212) are acquired (set) as the movable range of the finger.
- the application processing unit 490 receives a touch operation as a predetermined input operation within the movable range of the finger set by the movable range acquisition unit 435 in the region where the second operation input unit 322 can detect a touch. Set. A specific example of this touch area will be described later.
- the movable range acquisition unit 435 moves the finger on the side of the hand holding the casing, as described with reference to FIG. Get the range.
- the fulcrum position detection unit 430 detects the fulcrum position of each finger
- the movable range acquisition unit 435 detects the movable range of each finger.
- the movable range acquisition unit 435 determines that the upper side in the image displayed on the display screen by the first display unit 311 is the side farther from the user's body, and the index finger in order from the finger farther from the user's body. , Middle finger, ring finger, little finger. Then, the movable range acquisition unit 435 acquires the movable range of each finger based on the fulcrum position of each finger and the length of each finger acquired by the finger length acquisition unit 425. The same applies to the right hand (side 202 side).
- FIG. 10 is an explanatory diagram illustrating an example of a state in which the palm of the left hand is in contact with the side of the back of the housing.
- the length L301 indicates the length of the portion where the palm of the left hand is in contact with the back side of the housing.
- the length L302 is a length obtained by dividing the length L301 into eight equal parts. Points P301 to P304 are points detected by the fulcrum position detection unit 430 as the fulcrum positions of the fingers.
- the fulcrum position detection unit 430 detects the fulcrum position (point P301) at a position of length L302 from the end of the part where the palm is in contact with the side of the back of the casing. Similarly, the fulcrum position detection unit 430 has fulcrum positions (points) at positions 3 times, 5 times, and 7 times the length L302 from the end of the portion where the palm is in contact with the back side of the housing. P302, P303, P304) are detected.
- the thicknesses of the index finger, the middle finger, the ring finger, and the little finger are approximately equal. Therefore, the thickness of each finger is set to 1 ⁇ 4 of the length L301, and the fulcrum position detection unit 430 detects the fulcrum position as described above.
- FIGS. 11A and 11B are diagrams showing examples of touch areas in which the application processing unit 490 is configured with the display screen of the first display unit 311 as the front surface and the display screen of the second display unit 312 as the back surface. It is. (A) of FIG. 11 is the figure which looked at the portable terminal device 300 from the front, and the display screen of the 1st display part 311 is shown. FIG. 11B is a view of the mobile terminal device 300 as viewed from the back, and shows a display screen of the second display unit 312.
- regions A ⁇ b> 311 and A ⁇ b> 312 are regions indicating the movable range of the thumb acquired by the movable range acquisition unit 435 in the display screen region of the first display unit 311.
- areas A321 and A322 are fingers acquired by the movable range acquisition unit 435 in the area of the display screen of the second display unit 312 (a finger performing a touch operation.
- the finger is used as a middle finger. Although described, it may be another finger or may be a region that can be touched by any of a plurality of fingers).
- 11A is a touch region set on the display screen (front surface) of the first display unit 311 by the application processing unit 490.
- a region A332 in FIG. 11B is a touch region set by the application processing unit 490 on the display screen (back surface) of the second display unit 312.
- the application processing unit 490 sets the touch area A331 within the movable range of the thumb on the display screen of the first display unit 311 in FIG. At that time, the application processing unit 490 is configured such that the area behind the touch area A331 in FIG. 11A (the area A332 in FIG. 11B) is the movable area of the middle finger on the display screen of the second display unit 312.
- the touch area A331 is set so as to be included in. Then, the application processing unit 490 sets the back area A332 of the touch area A331 as the touch area.
- the application processing unit 490 sets a touch area at a position where the display screen of the first display unit 311 is the front surface and the display screen of the second display unit 312 is the back surface, and the first display unit 311 and the second display unit are displayed.
- Each touch region is set at a position included in the movable range of the finger on any display screen of the unit 312.
- the application processing unit 490 can move the finger on any display screen in the front and back regions configured such that the display screen of the first display unit 311 is the front and the display screen of the second display unit 312 is the back.
- the touch area By setting the touch area within the range, the user can intuitively understand that there is a relationship between these touch areas, and can easily perform an operation.
- the application processing unit 490 performs the same processing when the first operation input unit 321 receives a touch operation on the area A331 and when the second operation input unit 322 receives a touch operation on the area A332.
- the user can perform a touch operation by selecting either a touch operation on the display screen of the first display unit 311 or a touch operation on the display screen of the second display unit 312. it can.
- the user can visually recognize the touch position and perform the touch operation more reliably.
- the user can perform the touch operation while viewing the display screen of the first display unit 311 without blocking the front view with a finger.
- the application processing unit 490 performs different processing when the first operation input unit 321 receives a touch operation on the area A331 and when the second operation input unit 322 receives a touch operation on the area A332.
- the user can intuitively easily perform different operations on a predetermined area on the display screen (for example, the area A331 in which an icon is displayed on the display screen of the first display unit 311).
- the application processing unit 490 processes a touch operation on the area A331 as a left click operation of the mouse (an operation of pressing the left button of the mouse), and a touch operation on the area A332 is performed by a right click operation of the mouse (right mouse button).
- the user can easily perform different operations on the same region without using an instrument such as a mouse.
- FIG. 12A and 12B a touch area in which the application processing unit 490 specifies a position on the display screen of the first display unit 311 (touch area for pointing device use with respect to the display screen of the first display unit 311).
- FIG. 6 is a diagram illustrating an example in which is set on the display screen of the second display unit 312.
- (A) of FIG. 12 is the figure which looked at the portable terminal device 300 from the front, and the display screen of the 1st display part 311 is shown.
- FIG. 12B is a diagram of the mobile terminal device 300 as viewed from the back, and shows a display screen of the second display unit 312. Regions A321 and A322 in FIG.
- FIG. 12B indicate the movable range of the middle finger that the movable range acquisition unit 435 acquires in the region of the display screen of the second display unit 312 as in the case of FIG. It is an area.
- An area A 431 is a touch area set on the display screen of the second display unit 312 by the application processing unit 490.
- a position P411 in FIG. 12B indicates a position where the touch operation is performed in the area A431 of the second display unit 312.
- a position P412 in FIG. The position on the display screen of the 1st display part 311 matched with position P411 on a screen is shown.
- the application processing unit 490 sets the touch area A431 within the movable range of the middle finger on the display screen of the second display unit 312. Each part of the touch area A 431 is associated with each part of the display screen of the first display unit 311. Then, when a touch operation on touch area A431 is performed, application processing unit 490 displays a cursor at a position associated with the position where the touch operation is performed on the display screen of first display unit 311. In the example of FIGS. 12A and 12B, the application processing unit 490 is associated with the position P411 in response to a touch operation on the position P411 on the display screen of the second display unit 312 on the back. A cursor is displayed at a position P412 on the display screen of the first display unit 311.
- the application processing unit 490 includes the first display unit 311 within the movable range of the middle finger (movable range of the finger performing the touch operation) in the display screen of the second display unit 312 on the back surface of the mobile terminal device 300.
- the user can easily specify the position on the display screen of the first display unit 311 on the front surface of the mobile terminal device 300. For example, the user can easily move the position of the cursor displayed on the display screen of the first display unit 311.
- the finger length acquisition unit 425 acquires the length of at least one of the index finger, the middle finger, the ring finger, or the little finger, and the fulcrum position detection unit 430 holds the portable terminal device 300 in the state of gripping the finger.
- the fulcrum position of the finger when moving is detected.
- the application processing unit 490 is within the movable range of the finger determined based on the fulcrum position of the finger and the length of the finger in the region where the back touch sensor 327 of the second operation input unit 322 can detect the touch.
- a touch area for accepting a touch operation as a predetermined input operation is set.
- the mobile terminal device 300 more appropriately sets a touch area for receiving a touch operation as a predetermined input operation on the back side, as described for the touch area on the front side in the first embodiment. be able to. That is, the mobile terminal device 300 (movable range acquisition unit 435) can acquire the movable range of the finger more accurately based on the length of the finger and the fulcrum position of the finger. And the portable terminal device 300 (application process part 490) can set a touch area
- the mobile terminal device 300 touches the position where the touch area is set within the movable range of the finger on the back side in the same manner as described for the touch area on the front side in the first embodiment. Misdetection of operation can be prevented.
- the application processing unit 490 touches within the movable range of the finger on any display screen in the touch area configured with the display screen of the first display unit 311 as the front surface and the display screen of the second display unit 312 as the back surface.
- the application processing unit 490 performs the same processing when the first operation input unit 321 receives a touch operation on the area A331 and when the second operation input unit 322 receives a touch operation on the area A332.
- the user can perform a touch operation by selecting either a touch operation on the display screen of the first display unit 311 or a touch operation on the display screen of the second display unit 312. it can.
- the user When performing a touch operation on the display screen of the first display unit 311, the user can visually recognize the touch position and perform the touch operation more reliably.
- the user When performing a touch operation on the display screen of the second display unit 312, the user can perform the touch operation while viewing the display screen of the first display unit 311 without blocking the front view with a finger.
- the application processing unit 490 performs different processing when the first operation input unit 321 receives a touch operation on the area A331 and when the second operation input unit 322 receives a touch operation on the area A332. In this way, the user can intuitively easily perform different operations on a predetermined area on the display screen.
- the application processing unit 490 performs a browser function return operation (immediately before) within the movable range of the finger on the display screen of the second display unit 312. You may make it set the touch area
- the application processing unit 490 displays a cursor on the display screen of the first display unit 311 and moves (scrolls) the cursor according to the tilt of the casing of the mobile terminal device 300 detected by the tilt detection unit 460. That is, in a state where gravity scrolling is performed, the application processing unit 490 may set a touch area for a cursor (scroll) stop operation within the movable range of the finger on the display screen of the second display unit 312. For example, the application processing unit 490 sets the entire movable range of the finger on the display screen of the second display unit 312 as a touch area for the cursor stop operation.
- the application processing unit 490 stops the cursor displayed on the display screen of the first display unit 311. That is, the application processing unit 490 stops the gravity scroll. Thereby, the user can stop the cursor by an easy operation such as a touch operation with the index finger or the middle finger, for example.
- a program for realizing all or part of the functions of control unit 180 or control unit 380 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. By doing so, you may process each part.
- the “computer system” includes an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
- the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
- the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line.
- a volatile memory in a computer system serving as a server or a client in that case and a program that holds a program for a certain period of time are also included.
- the program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
- the portable information device including the touch sensor according to the present invention, it is possible to more appropriately set the touch area for accepting the touch operation.
- DESCRIPTION OF SYMBOLS 100 Portable terminal device 110 Display part 120 Operation input part 130 Side sensor part 141 Voice input part 142 Voice output part 150 Wireless communication part 180 Control part 190 Storage part 210 Display control part 220 Input processing part 225 Finger length acquisition part 230 Supporting point position detection Unit 235 movable range acquisition unit 240 voice processing unit 250 communication control unit 290 application processing unit 300 portable terminal device 311 first display unit 312 second display unit 321 first operation input unit 322 second operation input unit 360 gravity sensor unit 380 control Unit 410 display control unit 420 input processing unit 425 finger length acquisition unit 430 fulcrum position detection unit 435 movable range acquisition unit 460 tilt detection unit 490 application processing unit
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
支点位置検出部が、携帯端末装置(携帯型情報機器)を把持した状態で指を動かす際の親指の支点位置を検出し、指長取得部が、親指の長さを取得する。そして、アプリケーション処理部は、操作入力部のタッチセンサがタッチを検出できる領域のうち、親指の支点位置および親指の長さに基づいて求められる指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域(例えば、押ボタンのアイコンの表示領域)を設定する。
Description
本発明は、携帯型電子機器、タッチ領域設定方法およびタッチ領域設定プログラムに関する。
タッチパネルまたはタッチパッドなどのタッチセンサを備える携帯型電子機器において、携帯型電子機器を把持した手で操作を容易に行えるようにするために幾つかの方法が提案されている。
例えば、特許文献1に記載の携帯端末は、タッチパネルを有する携帯端末であって、タッチパネル上にキーやアイコンである項目を配置する配置手段を有し、タッチパネル上または前記タッチパネル周辺には、操作するユーザの指の位置を感知するセンサをさらに有し、配置手段は、センサで感知した操作するユーザの指の位置によって、項目を指の位置近傍に配置する。
このように、項目を指の位置の近傍に配置することで、ユーザにとって携帯型電子機器の操作が容易にすることができる。
例えば、特許文献1に記載の携帯端末は、タッチパネルを有する携帯端末であって、タッチパネル上にキーやアイコンである項目を配置する配置手段を有し、タッチパネル上または前記タッチパネル周辺には、操作するユーザの指の位置を感知するセンサをさらに有し、配置手段は、センサで感知した操作するユーザの指の位置によって、項目を指の位置近傍に配置する。
このように、項目を指の位置の近傍に配置することで、ユーザにとって携帯型電子機器の操作が容易にすることができる。
携帯電子機器において、所定の入力操作としてのタッチ操作を受け付けるタッチ領域(特許文献1における「項目」)を設定(配置)する際、携帯型電子機器を把持した手で操作できる領域がより正確に把握できれば、前記タッチ領域をより適切に設定することができる。
例えば、操作可能な領域が広い場合、その領域内に、より多くのアイコンを表示する、あるいは、各アイコンをより大きく表示することができる。
例えば、操作可能な領域が広い場合、その領域内に、より多くのアイコンを表示する、あるいは、各アイコンをより大きく表示することができる。
本発明は、上述の課題を解決することのできる携帯型電子機器、タッチ領域設定方法およびタッチ領域設定プログラムを提供することを目的としている。
この発明は上述した課題を解決するためになされたもので、本発明の一実施形態に係わる携帯型電子機器は、携帯型電子機器であって、タッチ位置を検出するタッチセンサと、前記携帯型電子機器を把持した状態で指を動かす際の指の支点位置を検出する支点位置検出部と、前記指の長さを取得する指長取得部と、前記タッチセンサがタッチを検出できる領域のうち、前記指の支点位置および前記指の長さに基づいて求められる指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定するタッチ領域設定部とを備えている。
また、本発明の一実施形態に係わるタッチ領域設定方法は、タッチ位置を検出するタッチセンサを備えた携帯型電子機器のタッチ領域設定方法であって、前記携帯型電子機器を把持した状態で指を動かす際の指の支点位置を検出する支点位置検出ステップと、前記指の長さを取得する指長取得ステップと、前記タッチセンサがタッチを検出できる領域のうち前記指の支点位置および前記指の長さに基づいて求められる指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定するタッチ領域設定ステップとを有している。
また、本発明の一実施形態に係わるタッチ領域設定プログラムは、タッチ位置を検出するタッチセンサを備えた携帯型電子機器としてのコンピュータに、前記携帯型電子機器を把持した状態で指を動かす際の指の支点位置を検出する支点位置検出ステップと、前記指の長さを取得する指長取得ステップと、前記タッチセンサがタッチを検出できる領域のうち前記指の支点位置および前記指の長さに基づいて求められる指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定するタッチ領域設定ステップとを実行させるためのプログラムである。
本発明によれば、所定の入力操作としてのタッチ操作を受け付けるタッチ領域をより適切に設定することができる。
<第1の実施形態>
以下、図面を参照して、本発明に係わる携帯端末装置における第1の実施形態について説明する。本発明は、携帯電話機や携帯情報端末装置などの様々な携帯端末装置に適用可能である。ただし、本発明の適用範囲は携帯端末装置に限らない。例えば、独立型の(すなわち、端末型でない)ゲーム機や電子辞書など、様々な携帯型情報機器に本発明を適用できる。
以下、図面を参照して、本発明に係わる携帯端末装置における第1の実施形態について説明する。本発明は、携帯電話機や携帯情報端末装置などの様々な携帯端末装置に適用可能である。ただし、本発明の適用範囲は携帯端末装置に限らない。例えば、独立型の(すなわち、端末型でない)ゲーム機や電子辞書など、様々な携帯型情報機器に本発明を適用できる。
図1は、本発明の第1の実施形態における携帯端末装置の機能構成を示すブロック図である。図1において、携帯端末装置100は、表示部110と、操作入力部120と、側面センサ部130と、音声入力部141と、音声出力部142と、無線通信部150と、制御部180と、記憶部190と、CPU(Central Processing Unit、中央処理装置:図示なし)を備えている。操作入力部120は、前面タッチセンサ(タッチセンサ)121を有する。制御部180は、表示制御部210と、入力処理部220と、指長取得部225と、支点位置検出部230と、可動範囲取得部235と、音声処理部240と、通信制御部250と、アプリケーション処理部(タッチ領域設定部)290とを備えている。
携帯端末装置100は、例えば携帯情報端末装置でもよく、ユーザ操作に応じてインターネットブラウジング(Internet Browsing)機能や電子メール機能など各種機能を提供する。
表示部110は、例えば液晶ディスプレイまたは有機EL(Organic Electro-Luminescence)ディスプレイ等の表示画面を有し、表示制御部210の制御に従って動画像や静止画像やテキスト(文字)などの各種画像を表示することができる。
表示部110は、例えば液晶ディスプレイまたは有機EL(Organic Electro-Luminescence)ディスプレイ等の表示画面を有し、表示制御部210の制御に従って動画像や静止画像やテキスト(文字)などの各種画像を表示することができる。
操作入力部120は、表示部110の表示画面に設けられた前面タッチセンサ121にて、ユーザ操作を受け付ける。すなわち、表示部110の表示画面と操作入力部120のタッチセンサ121とで、タッチパネルを構成する。
操作入力部120は、表示部110の表示画面に対するタッチ操作を検出すると、タッチ位置(表示画面におけるタッチされた位置)を示す信号を入力処理部220に出力する。
操作入力部120は、表示部110の表示画面に対するタッチ操作を検出すると、タッチ位置(表示画面におけるタッチされた位置)を示す信号を入力処理部220に出力する。
音声入力部141はマイクを有し、周囲音を採取して音声信号に変換し、音声処理部240に出力する。
音声出力部142はスピーカを有し、音声処理部240からアナログの電気信号にて出力される音声信号を音声に変換して出力する。
音声出力部142はスピーカを有し、音声処理部240からアナログの電気信号にて出力される音声信号を音声に変換して出力する。
側面センサ部130は、携帯端末装置100の筐体側面に設けられたセンサを有し、ユーザが携帯端末装置100の筐体を把持する際に、筐体側面に接触するユーザの手の位置を検出する。例えば、側面センサ部130は通電センサを有し、ユーザの手がその通電センサに接触した際に、ユーザの手における電流の導通を検出することによってユーザの手の位置を検出する。ただし、側面センサ部130のセンサは、通電センサに限らず、ユーザの手の位置を検出できるセンサであればよい。例えば、側面センサ部130が圧力センサを有し、携帯端末装置100の筐体を把持するユーザの手から加わる圧力を検出することによってユーザの手の位置を検出するようにしてもよい。
無線通信部150は、無線基地局と通信を行うことにより、携帯電話通信網(通信事業者によって提供される携帯電話機用の無線通信ネットワーク)に接続する。具体的には、無線通信部150は、通信制御部250から出力される信号に対して変調処理を行って無線信号にて送信し、また、受信した無線信号に対して復調処理を行って通信制御部250に出力する。例えば、無線通信部150は、電子メールデータを無線信号にて送受信することができる。
制御部180は、携帯端末装置100の各部を制御して各種機能を実行する。制御部180は、例えば、携帯端末装置100のCPU(図示なし)が、携帯端末装置100の有するメモリからプログラムを読み出して実行することにより実現される。
表示制御部210は、表示部110を制御して各種画像を表示させる。具体的には、表示制御部210は、アプリケーション処理部290から出力される動画像データや静止画像データやテキストデータ等に基づいて画面表示用の信号を生成して表示部110に出力することにより、表示部110の表示画面に画像を表示させる。
入力処理部220は、操作入力部120が受け付けた操作に応じた信号をアプリケーション処理部290に出力する。
例えば、入力処理部220は、表示部110がアイコン(Icon)を表示している状態で、表示部110の表示画面におけるタッチ位置を示す信号が操作入力部120から出力されると、アイコンがタッチされたか否かを判定する。そして、入力処理部220は、アイコンがタッチされたと判定すると、タッチされたアイコンを示す情報をアプリケーション処理部290に出力する。なお、ここでいうアイコンは、ファイル、フォルダ、アプリケーションプログラムあるいは機能など、選択対象ないし指定対象となっている物を象徴する画像である。
例えば、入力処理部220は、表示部110がアイコン(Icon)を表示している状態で、表示部110の表示画面におけるタッチ位置を示す信号が操作入力部120から出力されると、アイコンがタッチされたか否かを判定する。そして、入力処理部220は、アイコンがタッチされたと判定すると、タッチされたアイコンを示す情報をアプリケーション処理部290に出力する。なお、ここでいうアイコンは、ファイル、フォルダ、アプリケーションプログラムあるいは機能など、選択対象ないし指定対象となっている物を象徴する画像である。
指長取得部225は、ユーザの親指の長さを取得する。例えば、携帯端末装置100は、親指の長さの入力を受け付ける親指長入力モードを有し、指長取得部225は、その親指長入力モードにおいて、表示部110の表示画面上にセンチメートル(cm)単位で手書き入力された親指の長さを検出して、親指の長さを記憶部190に書き込んでおく。そして、指長取得部225は、記憶部190から親指の長さを読み出すことによって親指の長さを取得する。
支点位置検出部230は、ユーザが携帯端末装置100を把持した状態で親指を動かす際の親指の支点位置を検出する。支点位置検出部230が親指の支点位置を検出する方法については後述する。
可動範囲取得部235は、操作入力部120の前面タッチセンサ121がタッチを検出できる領域のうち、携帯端末装置100の筐体を把持した手の親指が届く範囲を求める。
以下では、携帯端末装置100の筐体を把持した手の親指が届く範囲を「親指の可動範囲」と称する。また、いずれかの指が届く範囲を「指の可動範囲」と称する。可動範囲取得部235は、支点位置検出部230が検出した親指の支点位置、および、指長取得部225が取得した親指の長さに基づいて、親指の可動範囲を求める。
可動範囲取得部235は、操作入力部120の前面タッチセンサ121がタッチを検出できる領域のうち、携帯端末装置100の筐体を把持した手の親指が届く範囲を求める。
以下では、携帯端末装置100の筐体を把持した手の親指が届く範囲を「親指の可動範囲」と称する。また、いずれかの指が届く範囲を「指の可動範囲」と称する。可動範囲取得部235は、支点位置検出部230が検出した親指の支点位置、および、指長取得部225が取得した親指の長さに基づいて、親指の可動範囲を求める。
音声処理部240は、アプリケーション処理部290から出力される音声データを電気信号に変換して音声出力部142に出力することで、音声出力部142に音声を出力させる。また、音声処理部240は、音声入力部141が音声を採取して出力する電気信号を音声データに変換してアプリケーション処理部290に出力する。
通信制御部250は、アプリケーション処理部290から出力されるデータに対して符号化等の処理を行って、無線通信部150に出力して変調させ、無線信号として送信させる。また、通信制御部250は、無線通信部150が受信して復調した信号に、復号等の処理を行ってデータを抽出し、アプリケーション処理部290に出力する。例えば、通信制御部250は、アプリケーション処理部290から出力される電子メールデータに符号化等の処理を行って無線通信部150に出力し、また、無線通信部150が受信して復調した信号に復号等の処理を行って電子メールデータ等のデータを抽出してアプリケーション処理部290に出力する。
アプリケーション処理部290は、アプリケーションを実行して(すなわち、アプリケーションプログラムを実行して)、インターネットブラウジング機能や電子メール機能など各種機能を提供する。
特に、アプリケーション処理部290は、操作入力部120の前面タッチセンサ121がタッチを検出できる領域のうち、可動範囲取得部235が求めた親指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定する。例えば、アプリケーション処理部290は、ユーザの入力操作を受け付けるための押ボタン(入力キー)としてのアイコンを、表示部110の表示画面上の、親指の可動範囲内に表示させる。
特に、アプリケーション処理部290は、操作入力部120の前面タッチセンサ121がタッチを検出できる領域のうち、可動範囲取得部235が求めた親指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定する。例えば、アプリケーション処理部290は、ユーザの入力操作を受け付けるための押ボタン(入力キー)としてのアイコンを、表示部110の表示画面上の、親指の可動範囲内に表示させる。
記憶部190は、例えば携帯端末装置100が有するメモリの記憶領域にて実現され、各種データを記憶する。特に、記憶部190は、指長取得部225が検出した親指の長さを記憶する。また、記憶部190は、携帯端末装置100の具備するCPUが実行する各種プログラムを、予め記憶している。
図2は、携帯端末装置100を前面側から見た外形の概略を示す斜視図である。図2において、携帯端末装置100の筐体前面には、表示部110の表示画面および操作入力部120のタッチセンサ(前面タッチセンサ121)によって構成されるタッチパネル式の表示画面と、音声入力部141のマイクと、音声出力部142のスピーカとが設けられている。また、携帯端末装置100の筐体の各側面には、側面センサ部130のセンサが設けられている。
次に、図3を参照して、支点位置検出部230が検出する親指の支点位置、および、可動範囲取得部235が取得する親指の可動範囲について説明する。
図3は、可動範囲取得部235が取得する親指の可動範囲の例を示す図である。図3では、ユーザが、携帯端末装置100の筐体を両手で把持し、筐体前面のタッチパネルを親指で操作する場合の例が示されている。
図3は、可動範囲取得部235が取得する親指の可動範囲の例を示す図である。図3では、ユーザが、携帯端末装置100の筐体を両手で把持し、筐体前面のタッチパネルを親指で操作する場合の例が示されている。
辺E101は、携帯端末装置100の筐体前面における左手側の辺である。また、辺E102は、携帯端末装置100の筐体前面における右手側の辺である。
点P101は、支点位置検出部230が検出する左手親指の支点位置である。また、点P102は、支点位置検出部230が検出する右手親指の支点位置である。
長さL101は、指長取得部225が取得する親指の長さを示す。
領域A111は、可動範囲取得部235が取得する左手親指の可動範囲である。また、領域A112は、可動範囲取得部235が取得する右手親指の可動範囲である。
また、領域A121と、領域A122とは、アプリケーション処理部290が表示部110の表示画面に表示させたアイコンによって示されるタッチ領域である。
また、領域A131は、辺E101のうち、左手親指の接する領域である。また、領域A132は、辺E102のうち、右手親指の接する領域である。
点P101は、支点位置検出部230が検出する左手親指の支点位置である。また、点P102は、支点位置検出部230が検出する右手親指の支点位置である。
長さL101は、指長取得部225が取得する親指の長さを示す。
領域A111は、可動範囲取得部235が取得する左手親指の可動範囲である。また、領域A112は、可動範囲取得部235が取得する右手親指の可動範囲である。
また、領域A121と、領域A122とは、アプリケーション処理部290が表示部110の表示画面に表示させたアイコンによって示されるタッチ領域である。
また、領域A131は、辺E101のうち、左手親指の接する領域である。また、領域A132は、辺E102のうち、右手親指の接する領域である。
ここで、支点位置検出部230は、側面センサ部130が検出するユーザの手の位置に基づいて、左手親指の支点位置(点P101)および右手親指の支点位置(点P102)を検出する。
例えば、支点位置検出部230は、側面センサ部130が検出するユーザの手の位置のうち、辺E101に接する領域(A131)の位置を、例えば携帯端末装置100の筐体前面における座標にて取得する。そして、支点位置検出部230は、領域A131の中心(線分の中心点)を、左手親指の支点位置(点P101)として検出する。
同様に、支点位置検出部230は、側面センサ部130が検出するユーザの手の位置のうち、辺E102に接する領域(A132)の位置を取得する。そして、支点位置検出部230は、領域A132の中心を、右手親指の支点位置(点P102)として検出する。
例えば、支点位置検出部230は、側面センサ部130が検出するユーザの手の位置のうち、辺E101に接する領域(A131)の位置を、例えば携帯端末装置100の筐体前面における座標にて取得する。そして、支点位置検出部230は、領域A131の中心(線分の中心点)を、左手親指の支点位置(点P101)として検出する。
同様に、支点位置検出部230は、側面センサ部130が検出するユーザの手の位置のうち、辺E102に接する領域(A132)の位置を取得する。そして、支点位置検出部230は、領域A132の中心を、右手親指の支点位置(点P102)として検出する。
また、可動範囲取得部235は、表示部110の表示画面の領域(すなわち、操作入力部120がタッチを検出できる領域)のうち、左手親指の支点位置(点P101)を中心とし、親指の長さ(長さL101)を半径とする円と重なる領域(領域A111)を、左手親指の可動範囲として取得(設定)する。
同様に、可動範囲取得部235は、表示部110の表示画面の領域のうち、右手親指の支点位置(点P102)を中心とし、親指の長さ(長さL101)を半径とする円と重なる領域(領域A112)を、右手親指の可動範囲として取得(設定)する。
同様に、可動範囲取得部235は、表示部110の表示画面の領域のうち、右手親指の支点位置(点P102)を中心とし、親指の長さ(長さL101)を半径とする円と重なる領域(領域A112)を、右手親指の可動範囲として取得(設定)する。
そして、アプリケーション処理部290は、表示部110の表示画面の領域のうち、左手親指の可動範囲内または右手親指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定する。図3の例では、アプリケーション処理部290は、左手親指の可動範囲内に、押ボタンAのアイコン(A121)および押ボタンBのアイコン(A122)を表示させている。そして、これらアイコンの表示領域は、押ボタンを押下するタッチ操作を受け付けるタッチ領域に設定されている。
次に図4および図5を参照して、携帯端末装置100の動作について説明する。
図4は、可動範囲取得部235が親指の可動範囲を取得する際の携帯端末装置100の動作を示すフローチャートである。携帯端末装置100は、例えば、アプリケーションの実行開始時に図4の処理を開始する。
図4は、可動範囲取得部235が親指の可動範囲を取得する際の携帯端末装置100の動作を示すフローチャートである。携帯端末装置100は、例えば、アプリケーションの実行開始時に図4の処理を開始する。
図4の処理において、まず、指長取得部225が、記憶部190から親指の長さを示す情報を読み出すことによって親指の長さを取得する(ステップS101)。
次に、支点位置検出部230は、図3で説明したように、側面センサ部130が検出するユーザの手の位置に基づいて、親指の支点位置を検出する(ステップS102)。
ここで、ユーザが携帯端末装置100の筐体を両手で把持している場合は、側面センサ部130が、左手側と右手側との両方にユーザの手の接触する位置を検出し、支点位置検出部230は、左手と右手との両方について親指の支点位置を検出する。
一方、ユーザが携帯端末装置100の筐体を片手で把持している場合、側面センサ部130が、その手の側でのみユーザの手の接触する位置を検出し、支点位置検出部230は、その手について親指の支点位置を検出する。例えば、ユーザが携帯端末装置100の筐体を右手のみで把持している場合、側面センサ部130が、筐体の右側(図3の例では辺E102側)でのみユーザの手の接触する位置を検出し、支点位置検出部230は、検出された位置に基づいて、右手親指の支点位置を検出する。
次に、支点位置検出部230は、図3で説明したように、側面センサ部130が検出するユーザの手の位置に基づいて、親指の支点位置を検出する(ステップS102)。
ここで、ユーザが携帯端末装置100の筐体を両手で把持している場合は、側面センサ部130が、左手側と右手側との両方にユーザの手の接触する位置を検出し、支点位置検出部230は、左手と右手との両方について親指の支点位置を検出する。
一方、ユーザが携帯端末装置100の筐体を片手で把持している場合、側面センサ部130が、その手の側でのみユーザの手の接触する位置を検出し、支点位置検出部230は、その手について親指の支点位置を検出する。例えば、ユーザが携帯端末装置100の筐体を右手のみで把持している場合、側面センサ部130が、筐体の右側(図3の例では辺E102側)でのみユーザの手の接触する位置を検出し、支点位置検出部230は、検出された位置に基づいて、右手親指の支点位置を検出する。
次に、可動範囲取得部235が、指長取得部225が取得した指の長さと、支点位置検出部230が取得した親指の支点位置とに基づいて、表示部110の表示画面の領域における親指の可動範囲を取得する(ステップS103)。
ここで、ステップS102において、支点位置検出部230が、左手と右手との両方について親指の支点位置を検出した場合、可動範囲取得部235は、左手と右手との両方について親指の可動範囲を取得する。一方、支点位置検出部230が、一方の手について親指の支点位置を検出した場合、可動範囲取得部235は、その手の親指の可動範囲を取得する。
その後、同図の処理を終了する。
ここで、ステップS102において、支点位置検出部230が、左手と右手との両方について親指の支点位置を検出した場合、可動範囲取得部235は、左手と右手との両方について親指の可動範囲を取得する。一方、支点位置検出部230が、一方の手について親指の支点位置を検出した場合、可動範囲取得部235は、その手の親指の可動範囲を取得する。
その後、同図の処理を終了する。
なお、携帯端末装置100が図4の処理を開始するタイミングは、上述したアプリケーションの実行開始時に限らない。例えば、携帯端末装置100が、アプリケーションの実行において操作キーのアイコンを表示する際に、図4の処理を開始するようにしてもよい。アイコンを表示する毎に可動範囲を取得することにより、ユーザが携帯端末装置100を持ち替えた場合でも、可動範囲取得部235は、親指の可動範囲を適切に検出することができる。
従って、アプリケーション処理部290は、ユーザがタッチ操作容易な位置にタッチ領域を設定することができる。
従って、アプリケーション処理部290は、ユーザがタッチ操作容易な位置にタッチ領域を設定することができる。
図5は、アプリケーション処理部290が表示部110の表示画面に、タッチ領域を示すアイコンを表示させる際の携帯端末装置100の動作を示すフローチャートである。携帯端末装置100は、例えば、アプリケーションの実行において操作キーのアイコンを表示する際に、図5の処理を開始する。
図5の処理において、まず、アプリケーション処理部290は、表示部110の表示画面の領域のうち、可動範囲取得部235によって設定された親指の可動範囲内に、タッチ領域を設定する(ステップS201)。
図5の処理において、まず、アプリケーション処理部290は、表示部110の表示画面の領域のうち、可動範囲取得部235によって設定された親指の可動範囲内に、タッチ領域を設定する(ステップS201)。
次に、アプリケーション処理部290は、タッチ領域を示すアイコン(例えば押ボタンのアイコン)の画像を取得し、取得したアイコンの画像を、ステップS201で設定したタッチ領域に表示させる(ステップS202)。
例えば、アプリケーション処理部290は、記憶部190が予め記憶するアイコン画像を読み出すことによってそのアイコン画像を取得し、取得したアイコン画像を、ステップS201で設定したタッチ領域に表示するための指示信号を、表示制御部210に出力する。そして、表示制御部210は、その指示信号に従って表示部110を制御して、表示画面上のタッチ領域に取得したアイコン画像を表示させる。
その後、図5の処理を終了する。
例えば、アプリケーション処理部290は、記憶部190が予め記憶するアイコン画像を読み出すことによってそのアイコン画像を取得し、取得したアイコン画像を、ステップS201で設定したタッチ領域に表示するための指示信号を、表示制御部210に出力する。そして、表示制御部210は、その指示信号に従って表示部110を制御して、表示画面上のタッチ領域に取得したアイコン画像を表示させる。
その後、図5の処理を終了する。
以上のように、指長取得部225が、親指の長さを取得し、また、支点位置検出部230が、ユーザが携帯端末装置100を把持した状態で指を動かす際の指の支点位置を検出する。そして、アプリケーション処理部290は、操作入力部120の前面タッチセンサ121がタッチを検出できる領域のうち、親指の支点位置および親指の長さに基づいて求められる指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定する。
これによって、所定の入力操作としてのタッチ操作を受け付けるタッチ領域をより適切に設定することができる。すなわち、携帯端末装置100(可動範囲取得部235)は、親指の長さおよび親指の支点位置に基づいて、親指の可動範囲をより正確に取得することができる。そして、携帯端末装置100(アプリケーション処理部290)は、得られた親指の可動範囲内にタッチ領域を設定することで、ユーザが容易にタッチ操作できる位置にタッチ領域を設定することができる。
これによって、所定の入力操作としてのタッチ操作を受け付けるタッチ領域をより適切に設定することができる。すなわち、携帯端末装置100(可動範囲取得部235)は、親指の長さおよび親指の支点位置に基づいて、親指の可動範囲をより正確に取得することができる。そして、携帯端末装置100(アプリケーション処理部290)は、得られた親指の可動範囲内にタッチ領域を設定することで、ユーザが容易にタッチ操作できる位置にタッチ領域を設定することができる。
また、携帯端末装置100は、タッチ領域を親指の可動範囲内に設定することで、タッチ操作の誤検出を防止することができる。
ここで、親指の可動範囲外においてて検出されるタッチとは、ネクタイまたは髪の毛が偶然接触して行われたタッチなど、ユーザの指以外によって行われたユーザの意図しないタッチであることが考えられる。特に、ユーザが携帯端末装置100の筐体を両手持ちしている場合、親指の可動範囲外にて検出されるタッチは、ユーザの指以外によって行われたユーザの意図しないタッチである可能性が高い。
そこで、携帯端末装置100は、タッチ領域を設定する位置を親指の可動範囲内に限定することで、親指の可動範囲外にて検出されるタッチを無視する(すなわち、タッチに対して処理を行わない)ようにでき、タッチ操作の誤検出を防止することができる。
ここで、親指の可動範囲外においてて検出されるタッチとは、ネクタイまたは髪の毛が偶然接触して行われたタッチなど、ユーザの指以外によって行われたユーザの意図しないタッチであることが考えられる。特に、ユーザが携帯端末装置100の筐体を両手持ちしている場合、親指の可動範囲外にて検出されるタッチは、ユーザの指以外によって行われたユーザの意図しないタッチである可能性が高い。
そこで、携帯端末装置100は、タッチ領域を設定する位置を親指の可動範囲内に限定することで、親指の可動範囲外にて検出されるタッチを無視する(すなわち、タッチに対して処理を行わない)ようにでき、タッチ操作の誤検出を防止することができる。
<第2の実施形態>
図6は、本発明の第2の実施形態における携帯端末装置の機能構成を示すブロック図である。図6において、携帯端末装置300は、第1表示部311と、第2表示部312と、第1操作入力部321と、第2操作入力部322と、側面センサ部130と、音声入力部141と、音声出力部142と、無線通信部150と、重力センサ部360と、制御部380と、記憶部190と、CPU(図示無し)とを備えている。第1操作入力部321は、前面タッチセンサ326を有する。第2操作入力部322は、背面タッチセンサ327を有する。制御部380は、表示制御部410と、入力処理部420と、指長取得部425と、支点位置検出部430と、可動範囲取得部435と、音声処理部240と、通信制御部250と、傾き検出部460と、アプリケーション処理部(タッチ領域設定部、処理部)490とを備えている。
図6において、図1の各部に対応して同様の機能を有する部分には同一の符号(130、141、142、150、190、240、250)を付して説明を省略する。
図6は、本発明の第2の実施形態における携帯端末装置の機能構成を示すブロック図である。図6において、携帯端末装置300は、第1表示部311と、第2表示部312と、第1操作入力部321と、第2操作入力部322と、側面センサ部130と、音声入力部141と、音声出力部142と、無線通信部150と、重力センサ部360と、制御部380と、記憶部190と、CPU(図示無し)とを備えている。第1操作入力部321は、前面タッチセンサ326を有する。第2操作入力部322は、背面タッチセンサ327を有する。制御部380は、表示制御部410と、入力処理部420と、指長取得部425と、支点位置検出部430と、可動範囲取得部435と、音声処理部240と、通信制御部250と、傾き検出部460と、アプリケーション処理部(タッチ領域設定部、処理部)490とを備えている。
図6において、図1の各部に対応して同様の機能を有する部分には同一の符号(130、141、142、150、190、240、250)を付して説明を省略する。
携帯端末装置300は、携帯端末装置100(図1)と同様、例えば携帯情報端末装置であり、ユーザ操作に応じてインターネットブラウジング(Internet Browsing)機能や電子メール機能など各種機能を提供する。ただし、携帯端末装置300は、背面にもタッチセンサ(背面タッチセンサ327)を有する点で携帯端末装置100と異なる。
第1表示部311は、例えば液晶ディスプレイまたは有機EL(Organic Electro-Luminescence)ディスプレイ等の表示画面を、携帯端末装置300の筐体前面に有し、表示制御部410の制御に従って動画像や静止画像やテキスト(文字)などの各種画像を表示する。
第2表示部312は、例えば液晶ディスプレイまたは有機EL(Organic Electro-Luminescence)ディスプレイ等の表示画面を、携帯端末装置300の筐体背面に有し、表示制御部410の制御に従って動画像や静止画像やテキスト(文字)などの各種画像を表示する。
第2表示部312は、例えば液晶ディスプレイまたは有機EL(Organic Electro-Luminescence)ディスプレイ等の表示画面を、携帯端末装置300の筐体背面に有し、表示制御部410の制御に従って動画像や静止画像やテキスト(文字)などの各種画像を表示する。
第1操作入力部321は、第1表示部311の表示画面に設けられたタッチセンサ(前面タッチセンサ326)を有し、ユーザ操作を受け付ける。すなわち、第1表示部311の表示画面と第1操作入力部321の前面タッチセンサ326とで、タッチパネルを構成する。
第1操作入力部321は、第1表示部311の表示画面に対するタッチ操作を検出すると、タッチ位置(表示画面におけるタッチされた位置)を示す信号を入力処理部420に出力する。
第1操作入力部321は、第1表示部311の表示画面に対するタッチ操作を検出すると、タッチ位置(表示画面におけるタッチされた位置)を示す信号を入力処理部420に出力する。
第2操作入力部322は、第2表示部312の表示画面に設けられたタッチセンサ(背面タッチセンサ327)を有し、ユーザ操作を受け付ける。すなわち、第2表示部312の表示画面と第2操作入力部322の背面タッチセンサ327とで、タッチパネルを構成する。
但し、第2操作入力部322が有するタッチセンサは、携帯端末装置300の筐体背面に設けられたタッチパッドのタッチセンサであってもよい。すなわち、携帯端末装置300が、第2表示部312を有しない場合、筐体背面に表示画面を有する代わりに筐体背面にタッチパッドを備えてもよい。
第2操作入力部322は、第2表示部312の表示画面に対するタッチ操作を検出すると、タッチ位置(表示画面におけるタッチされた位置)を示す信号を入力処理部420に出力する。
但し、第2操作入力部322が有するタッチセンサは、携帯端末装置300の筐体背面に設けられたタッチパッドのタッチセンサであってもよい。すなわち、携帯端末装置300が、第2表示部312を有しない場合、筐体背面に表示画面を有する代わりに筐体背面にタッチパッドを備えてもよい。
第2操作入力部322は、第2表示部312の表示画面に対するタッチ操作を検出すると、タッチ位置(表示画面におけるタッチされた位置)を示す信号を入力処理部420に出力する。
重力センサ部360は、筐体内部に重力センサ(加速度センサ)を有し、重力加速度を検出することで鉛直下向きを検出する。
制御部380は、携帯端末装置300の各部を制御して各種機能を実行する。制御部380は、例えば、携帯端末装置300が有するするCPU(Central Processing Unit、中央処理装置)が、携帯端末装置300の有するメモリからプログラムを読み出して実行することにより実現される。
表示制御部410は、第1表示部311と第2表示部312とを制御して、各々に各種画像を表示させる。具体的には、表示制御部410は、アプリケーション処理部490から出力される動画像データや静止画像データやテキストデータ等に基づいて画面表示用の信号を生成して第1表示部311に出力することにより第1表示部311の表示画面に画像を表示させ、また、同様に画面表示用の信号を生成して第2表示部312に出力することにより第2表示部312の表示画面に画像を表示させる。
入力処理部420は、第1操作入力部321や第2操作入力部322が受け付けた操作に応じた信号をアプリケーション処理部490に出力する。
例えば、入力処理部420は、第1表示部311がアイコンを表示している状態で、第1表示部311の表示画面におけるタッチ位置を示す信号が第1操作入力部321から出力されると、アイコンをタッチされたか否かを判定する。そして、入力処理部420は、アイコンをタッチされたと判定すると、タッチされたアイコンを示す情報をアプリケーション処理部490に出力する。
例えば、入力処理部420は、第1表示部311がアイコンを表示している状態で、第1表示部311の表示画面におけるタッチ位置を示す信号が第1操作入力部321から出力されると、アイコンをタッチされたか否かを判定する。そして、入力処理部420は、アイコンをタッチされたと判定すると、タッチされたアイコンを示す情報をアプリケーション処理部490に出力する。
指長取得部425は、図1の指長取得部225と同様、親指の長さを取得する。加えて、指長取得部425は、ユーザの人差し指、中指、薬指または小指の少なくともいずれか1つの長さを取得する。
例えば、携帯端末装置300は、親指、人差し指、中指、薬指および小指の各々の長さの入力を受け付ける指長入力モードを有し、指長取得部425は、指長入力モードにおいて、第1表示部311の表示画面上にセンチメートル(cm)単位で手書き入力された各指の長さを検出して、各指の長さを記憶部190に書き込んでおく。そして、指長取得部425は、記憶部190から各指の長さを読み出すことによって各指の長さを取得する。
例えば、携帯端末装置300は、親指、人差し指、中指、薬指および小指の各々の長さの入力を受け付ける指長入力モードを有し、指長取得部425は、指長入力モードにおいて、第1表示部311の表示画面上にセンチメートル(cm)単位で手書き入力された各指の長さを検出して、各指の長さを記憶部190に書き込んでおく。そして、指長取得部425は、記憶部190から各指の長さを読み出すことによって各指の長さを取得する。
支点位置検出部430は、支点位置検出部230(図1)と同様、ユーザが携帯端末装置300を把持した状態で親指を動かす際の親指の支点位置を検出する。支点位置検出部430は、ユーザが携帯端末装置300を把持した状態で人差し指、中指、薬指または小指の少なくともいずれか1つを動かす際、その指の支点位置を検出する。支点位置検出部430が人差し指、中指、薬指または小指の支点位置を検出する方法については後述する。
可動範囲取得部435は、図1の可動範囲取得部235と同様、第1操作入力部321の前面タッチセンサ326がタッチを検出できる領域のうち、親指の可動範囲を求める。可動範囲取得部435は、第2操作入力部322の背面タッチセンサ327がタッチを検出できる領域のうち、人差し指、中指、薬指または小指の少なくともいずれか1つについて、ユーザが携帯端末装置300の筐体を把持した手の指が届く範囲を求める。以下では、人差し指、中指、薬指または小指について、携帯端末装置300の筐体を把持した手の指が届く範囲を、指の「可動範囲」と称する。
可動範囲取得部435は、支点位置検出部430が検出した指の支点位置、および、指長取得部425が取得した指の長さに基づいて、指の可動範囲を求める。
可動範囲取得部435は、支点位置検出部430が検出した指の支点位置、および、指長取得部425が取得した指の長さに基づいて、指の可動範囲を求める。
傾き検出部460は、携帯端末装置300の筐体における基準の向きと、重力センサ部360が検出する鉛直下向きとの差を算出することによって、携帯端末装置300の筐体の傾きを検出する。例えば、傾き検出部460は、携帯端末装置300の筐体を、水平な面上に横長に立てた際の鉛直下向きを携帯端末装置300の筐体における基準の向きとして、その基準の向きと重力センサ部360が検出する鉛直下向きとの差を算出することによって、携帯端末装置300の筐体の左右方向の傾きを検出する。
アプリケーション処理部490は、図1のアプリケーション処理部290と同様に、アプリケーションプログラムを実行して、インターネットブラウジング機能や電子メール機能など各種機能を提供する。
アプリケーション処理部490は、図1のアプリケーション処理部290と同様、第1操作入力部321の前面タッチセンサ326がタッチを検出できる領域のうち、可動範囲取得部435が求めた親指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定する。
また、アプリケーション処理部490は、第2操作入力部322の背面タッチセンサ327がタッチを検出できる領域のうち、可動範囲取得部435が人差し指、中指、薬指または小指の少なくともいずれか1つについて求めた指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定する。
アプリケーション処理部490は、図1のアプリケーション処理部290と同様、第1操作入力部321の前面タッチセンサ326がタッチを検出できる領域のうち、可動範囲取得部435が求めた親指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定する。
また、アプリケーション処理部490は、第2操作入力部322の背面タッチセンサ327がタッチを検出できる領域のうち、可動範囲取得部435が人差し指、中指、薬指または小指の少なくともいずれか1つについて求めた指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定する。
図7は、携帯端末装置300を前面側から見た外形の概略を示す斜視図である。図7における外形は、図2における携帯端末装置100の外形と同様であり、携帯端末装置300の筐体前面に、第1表示部311の表示画面および第1操作入力部321のタッチセンサ(前面タッチセンサ326)によって構成されるタッチパネル式の表示画面と、音声入力部141のマイクと、音声出力部142のスピーカとが設けられている。また、携帯端末装置300の筐体の各側面には、側面センサ部130のセンサが設けられている。
図8は、携帯端末装置300を背面側から見た外形の概略を示す斜視図である。図8において、携帯端末装置300の筐体裏面には、第2表示部312の表示画面および第2操作入力部322のタッチセンサ(背面タッチセンサ327)によって構成されるタッチパネル式の表示画面が設けられている。また、図7で説明したように、携帯端末装置300の筐体の各側面には、側面センサ部130のセンサが設けられている。
ここで図8に示す第2表示部312の表示画面は、図7に示す第1表示部311の表示画面を前面側とし、その背面側に配置されている。
ここで図8に示す第2表示部312の表示画面は、図7に示す第1表示部311の表示画面を前面側とし、その背面側に配置されている。
次に、図9を参照して、支点位置検出部430が検出する指の支点位置、および、可動範囲取得部435が取得する指の可動範囲について説明する。
図9は、可動範囲取得部435が取得する指の可動範囲の例を示す説明図である。図9では、ユーザが、携帯端末装置300の筐体を両手持ちし、筐体背面のタッチパネルを中指でタッチ操作する場合の例が示されている。
図9は、可動範囲取得部435が取得する指の可動範囲の例を示す説明図である。図9では、ユーザが、携帯端末装置300の筐体を両手持ちし、筐体背面のタッチパネルを中指でタッチ操作する場合の例が示されている。
辺E201は、携帯端末装置300の筐体背面における左手側の辺である。また、辺E202は、携帯端末装置300の筐体背面における右手側の辺である。
点P201は、支点位置検出部430が検出する左手中指の支点位置である。また、点P202は、支点位置検出部430が検出する右手中指の支点位置である。
長さL201は、指長取得部425が取得する中指の長さを示す。
領域A211は、可動範囲取得部435が取得する左手中指の可動範囲である。また、領域A212は、可動範囲取得部435が取得する右手中指の可動範囲である。
点P201は、支点位置検出部430が検出する左手中指の支点位置である。また、点P202は、支点位置検出部430が検出する右手中指の支点位置である。
長さL201は、指長取得部425が取得する中指の長さを示す。
領域A211は、可動範囲取得部435が取得する左手中指の可動範囲である。また、領域A212は、可動範囲取得部435が取得する右手中指の可動範囲である。
例えば、指長取得部425が、人差し指、中指、薬指または小指のうちいずれか1本のみの長さを取得した状態(すなわち、記憶部190が、人差し指、中指、薬指または小指のうちいずれか1本のみの長さを記憶している状態)で、側面センサ部130が、辺E201において1本の指のみの接触を検出した場合、支点位置検出部430は、当該指の支点位置を検出する。ここで、タッチ操作を行う指は、タッチパネルに接触するために、他の指よりも筐体本体に近い位置にあることが期待される。そこで、側面センサ部130が接触を検出した指によってタッチ操作が行われるものと仮定して、支点位置検出部430が当該指の支点位置を検出するようにし、可動範囲取得部435が当該視点位置に基づいて指の可動範囲を取得するようにする。
支点位置検出部430は、図3で説明したのと同様に、指が辺201に接する領域の中心を、当該指の支点位置(P201)として検出する。
同様に、指長取得部425が、人差し指、中指、薬指または小指のうちいずれか1本のみの長さを取得した状態で、側面センサ部130が、辺E202において1本の指のみの接触を検出した場合、支点位置検出部430は、当該指の支点位置を検出する。
支点位置検出部430は、図3で説明したのと同様に、指が辺201に接する領域の中心を、当該指の支点位置(P201)として検出する。
同様に、指長取得部425が、人差し指、中指、薬指または小指のうちいずれか1本のみの長さを取得した状態で、側面センサ部130が、辺E202において1本の指のみの接触を検出した場合、支点位置検出部430は、当該指の支点位置を検出する。
また、可動範囲取得部435は、第2操作入力部322がタッチを検出できる領域のうち、支点位置検出部430が検出した支点位置(図9の例では左手中指の支点位置である点P201、および、右手中指の支点位置である点P202)を中心とし、指長取得部425が取得する指の長さ(図9の例では中指の長さL201)を半径とする円と重なる領域(領域A211およびA212)を、指の可動範囲として取得(設定)する。
そして、アプリケーション処理部490は、第2操作入力部322がタッチを検出できる領域のうち、可動範囲取得部435が設定した指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定する。このタッチ領域の具体例については後述する。
なお、ユーザが携帯端末装置300の筐体を片手持ちしている場合、図4で説明したのと同様に、可動範囲取得部435は、筐体を把持している手の側について指の可動範囲を取得する。
なお、ユーザが携帯端末装置300の筐体を片手持ちしている場合、図4で説明したのと同様に、可動範囲取得部435は、筐体を把持している手の側について指の可動範囲を取得する。
なお、側面センサ部130が、辺E201において4本の指の接触を検出した場合、支点位置検出部430は、各指の支点位置を検出し、可動範囲取得部435は、各指の可動範囲を取得する。この場合、可動範囲取得部435は、第1表示部311が表示画面に表示している画像における上側を、ユーザの体から遠い側と判定して、ユーザの体から遠い側の指から順に人差し指、中指、薬指、小指と判定する。そして、可動範囲取得部435は、各指の支点位置と、指長取得部425が取得する各指の長さとに基づいて、各指の可動範囲を取得する。右手(辺202側)についても同様である。
また、側面センサ部130は、掌の接触を検出した場合、支点位置検出部430は、当該掌の接触位置に基づいて、各指の支点位置を検出する。
図10は、筐体背面の辺に左手の掌が接触している状態の例を示す説明図である。
ここで、長さL301は、筐体背面の辺に左手の掌が接触している部分の長さを示す。
また、長さL302は、長さL301を8等分した長さである。
また、点P301~P304は、支点位置検出部430が指の支点位置として検出する点である。
図10は、筐体背面の辺に左手の掌が接触している状態の例を示す説明図である。
ここで、長さL301は、筐体背面の辺に左手の掌が接触している部分の長さを示す。
また、長さL302は、長さL301を8等分した長さである。
また、点P301~P304は、支点位置検出部430が指の支点位置として検出する点である。
支点位置検出部430は、筐体背面の辺に掌が接触している部分の端から長さL302の位置に支点位置(点P301)を検出する。同様に、支点位置検出部430は、筐体背面の辺に掌が接触している部分の端から長さL302の3倍の位置、5倍の位置、7倍の位置にそれぞれ支点位置(点P302、P303、P304)を検出する。ここで、人差し指、中指、薬指および小指の太さはおよそ等しい。そこで、各指の太さを長さL301の4分の1として、支点位置検出部430が上記のように支点位置を検出するようにする。
次に、図11および図12を参照して、アプリケーション処理部490が設定するタッチ領域について説明する。
図11の(a)および(b)は、アプリケーション処理部490が、第1表示部311の表示画面を前面とし、第2表示部312の表示画面を背面として構成したタッチ領域の例を示す図である。図11の(a)は携帯端末装置300を前面から見た図であり、第1表示部311の表示画面が示されている。図11の(b)は、携帯端末装置300を背面より見た図であり、第2表示部312の表示画面が示されている。
図11の(a)および(b)は、アプリケーション処理部490が、第1表示部311の表示画面を前面とし、第2表示部312の表示画面を背面として構成したタッチ領域の例を示す図である。図11の(a)は携帯端末装置300を前面から見た図であり、第1表示部311の表示画面が示されている。図11の(b)は、携帯端末装置300を背面より見た図であり、第2表示部312の表示画面が示されている。
図11の(a)において、領域A311およびA312は、第1表示部311の表示画面の領域において可動範囲取得部435が取得する親指の可動範囲を示す領域である。また、図11の(b)において、領域A321およびA322は、第2表示部312の表示画面の領域において可動範囲取得部435が取得する指(タッチ操作を行う指。以下ではその指を中指として説明するが、他の指であってもよいし、複数の指のいずれかでタッチ可能な領域であってもよい)の可動範囲を示す。
また、図11の(a)における領域A331は、アプリケーション処理部490が、第1表示部311の表示画面上(前面)に設定したタッチ領域である。また、図11の(b)における領域A332は、アプリケーション処理部490が、第2表示部312の表示画面上(背面)に設定したタッチ領域である。
また、図11の(a)における領域A331は、アプリケーション処理部490が、第1表示部311の表示画面上(前面)に設定したタッチ領域である。また、図11の(b)における領域A332は、アプリケーション処理部490が、第2表示部312の表示画面上(背面)に設定したタッチ領域である。
アプリケーション処理部490は、図11の(a)における第1表示部311の表示画面のうち親指の可動範囲内に、タッチ領域A331を設定する。その際、アプリケーション処理部490は、図11の(a)におけるタッチ領域A331の背面の領域(図11の(b)の領域A332)が、第2表示部312の表示画面において、中指の可動領域に含まれるように、タッチ領域A331を設定する。そして、アプリケーション処理部490は、このタッチ領域A331の背面領域A332もタッチ領域として設定する。
すなわち、アプリケーション処理部490は、第1表示部311の表示画面を前面とし、第2表示部312の表示画面を背面とする位置にタッチ領域を設定し、かつ第1表示部311および第2表示部312のいずれの表示画面においても指の可動範囲に含まれる位置に、それぞれのタッチ領域を設定する。
すなわち、アプリケーション処理部490は、第1表示部311の表示画面を前面とし、第2表示部312の表示画面を背面とする位置にタッチ領域を設定し、かつ第1表示部311および第2表示部312のいずれの表示画面においても指の可動範囲に含まれる位置に、それぞれのタッチ領域を設定する。
このように、アプリケーション処理部490が、第1表示部311の表示画面を前面とし、第2表示部312の表示画面を背面として構成した前面および背面領域において、いずれの表示画面においても指の可動範囲内にタッチ領域を設定することで、ユーザは、これらのタッチ領域の間に関連性があることを直感的に把握して、容易に操作を行うことができる。
例えば、アプリケーション処理部490が、第1操作入力部321が領域A331へのタッチ操作を受け付けた場合と、第2操作入力部322が領域A332へのタッチ操作を受け付けた場合とで同一の処理を行うようにすれば、ユーザは、第1表示部311の表示画面へのタッチ操作と、第2表示部312の表示画面へのタッチ操作とのうちいずれかを選択してタッチ操作を行うことができる。第1表示部311の表示画面へのタッチ操作を行う場合、ユーザは、タッチ位置を視認して、より確実にタッチ操作を行うことができる。また、第2表示部312の表示画面へのタッチ操作を行う場合、ユーザは、前面の視界を指で遮られずに第1表示部311の表示画面を見ながらタッチ操作を行うことができる。
一方、アプリケーション処理部490が、第1操作入力部321が領域A331へのタッチ操作を受け付けた場合と、第2操作入力部322が領域A332へのタッチ操作を受け付けた場合とで異なる処理を行うようにすれば、ユーザは、表示画面上の所定の領域(例えば第1表示部311の表示画面においてアイコンが表示されている領域A331)に対する異なる操作を、直感的に容易に行うことが出来る。例えば、アプリケーション処理部490が、領域A331へのタッチ操作をマウスの左クリック操作(マウスの左ボタンを押下する操作)として処理し、領域A332へのタッチ操作をマウスの右クリック操作(マウスの右ボタンを押下する操作)として処理することで、ユーザは、マウス等の器具を用いずとも、同一の領域に対する異なる操作を容易に行うことが出来る。
図12の(a)および(b)は、アプリケーション処理部490が、第1表示部311の表示画面における位置を指定するタッチ領域(第1表示部311の表示画面に対するポインティングデバイス用途のタッチ領域)を、第2表示部312の表示画面上に設定した例を示す図である。図12の(a)は携帯端末装置300を前面から見た図であり、第1表示部311の表示画面が示されている。図12の(b)は、携帯端末装置300を背面より見た図であり、第2表示部312の表示画面が示されている。
図12の(b)における領域A321およびA322は、図11の(b)の場合と同様に、第2表示部312の表示画面の領域において可動範囲取得部435が取得する中指の可動範囲を示す領域である。
また、領域A431は、アプリケーション処理部490が、第2表示部312の表示画面上に設定したタッチ領域である。
また、図12の(b)における位置P411は、第2表示部312の領域A431のうちタッチ操作の行われた位置を示し、図12の(a)の位置P412は、第2表示部312の画面上の位置P411に対応付けられた、第1表示部311の表示画面上の位置を示す。
図12の(b)における領域A321およびA322は、図11の(b)の場合と同様に、第2表示部312の表示画面の領域において可動範囲取得部435が取得する中指の可動範囲を示す領域である。
また、領域A431は、アプリケーション処理部490が、第2表示部312の表示画面上に設定したタッチ領域である。
また、図12の(b)における位置P411は、第2表示部312の領域A431のうちタッチ操作の行われた位置を示し、図12の(a)の位置P412は、第2表示部312の画面上の位置P411に対応付けられた、第1表示部311の表示画面上の位置を示す。
アプリケーション処理部490は、第2表示部312の表示画面のうち中指の可動範囲内にタッチ領域A431を設定する。このタッチ領域A431の各部は、第1表示部311の表示画面の各部に対応付けられている。そして、アプリケーション処理部490は、タッチ領域A431へのタッチ操作が行われると、第1表示部311の表示画面において、タッチ操作が行なわれた位置に対応付けられた位置にカーソルを表示する。図12の(a)および(b)の例では、アプリケーション処理部490は、背面にある第2表示部312の表示画面の位置P411へのタッチ操作に応じて、この位置P411に対応付けられた第1表示部311の表示画面上の位置P412にカーソルを表示している。
このように、アプリケーション処理部490が、携帯端末装置300の背面における第2表示部312の表示画面のうち中指の可動範囲(タッチ操作を行う指の可動範囲)内に、第1表示部311の表示画面上の位置を指定するタッチ領域を設定することで、ユーザは、携帯端末装置300の前面の第1表示部311の表示画面における位置を容易に指定できる。例えば、ユーザは、第1表示部311の表示画面に表示されたカーソルの位置を容易に移動させることができる。
以上のように、指長取得部425が、人差し指、中指、薬指または小指のうち少なくとも1つの長さを取得し、また、支点位置検出部430が、携帯端末装置300を把持した状態で当該指を動かす際の指の支点位置を検出する。そして、アプリケーション処理部490は、第2操作入力部322の背面タッチセンサ327がタッチを検出できる領域のうち、当該指の支点位置および当該指の長さに基づいて求められる指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定する。
これによって、第1の実施形態において前面側のタッチ領域について説明したのと同様、背面側においても、携帯端末装置300は、所定の入力操作としてのタッチ操作を受け付けるタッチ領域をより適切に設定することができる。すなわち、携帯端末装置300(可動範囲取得部435)は、指の長さおよび指の支点位置に基づいて、指の可動範囲をより正確に取得できる。そして、携帯端末装置300(アプリケーション処理部490)は、得られた指の可動範囲内にタッチ領域を設定することで、ユーザがタッチ操作容易な位置にタッチ領域を設定できる。
これによって、第1の実施形態において前面側のタッチ領域について説明したのと同様、背面側においても、携帯端末装置300は、所定の入力操作としてのタッチ操作を受け付けるタッチ領域をより適切に設定することができる。すなわち、携帯端末装置300(可動範囲取得部435)は、指の長さおよび指の支点位置に基づいて、指の可動範囲をより正確に取得できる。そして、携帯端末装置300(アプリケーション処理部490)は、得られた指の可動範囲内にタッチ領域を設定することで、ユーザがタッチ操作容易な位置にタッチ領域を設定できる。
また、携帯端末装置300は、第1の実施形態において前面側のタッチ領域について説明したのと同様、背面側においても、タッチ領域を設定する位置を指の可動範囲内に限定することで、タッチ操作の誤検出を防止し得る。
また、アプリケーション処理部490が、第1表示部311の表示画面を前面とし、第2表示部312の表示画面を背面として構成したタッチ領域において、いずれの表示画面においても指の可動範囲内にタッチ領域を設定することで、ユーザは、これらのタッチ領域の間に関連性があることを直感的に把握して、容易に操作を行うことができる。
例えば、アプリケーション処理部490が、第1操作入力部321が領域A331へのタッチ操作を受け付けた場合と、第2操作入力部322が領域A332へのタッチ操作を受け付けた場合とで同一の処理を行うようにすれば、ユーザは、第1表示部311の表示画面へのタッチ操作と、第2表示部312の表示画面へのタッチ操作とのうちいずれかを選択してタッチ操作を行うことができる。第1表示部311の表示画面へのタッチ操作を行う場合、ユーザは、タッチ位置を視認して、より確実にタッチ操作を行うことができる。また、第2表示部312の表示画面へのタッチ操作を行う場合、ユーザは、前面の視界を指で遮られずに第1表示部311の表示画面を見ながらタッチ操作を行うことができる。
例えば、アプリケーション処理部490が、第1操作入力部321が領域A331へのタッチ操作を受け付けた場合と、第2操作入力部322が領域A332へのタッチ操作を受け付けた場合とで同一の処理を行うようにすれば、ユーザは、第1表示部311の表示画面へのタッチ操作と、第2表示部312の表示画面へのタッチ操作とのうちいずれかを選択してタッチ操作を行うことができる。第1表示部311の表示画面へのタッチ操作を行う場合、ユーザは、タッチ位置を視認して、より確実にタッチ操作を行うことができる。また、第2表示部312の表示画面へのタッチ操作を行う場合、ユーザは、前面の視界を指で遮られずに第1表示部311の表示画面を見ながらタッチ操作を行うことができる。
また、アプリケーション処理部490が、第1操作入力部321が領域A331へのタッチ操作を受け付けた場合と、第2操作入力部322が領域A332へのタッチ操作を受け付けた場合とで異なる処理を行うようにすれば、ユーザは、表示画面上の所定の領域に対する異なる操作を、直感的に容易に行うことが出来る。
なお、第1表示部311が表示画面にブラウザ画像を表示する状態において、アプリケーション処理部490が、第2表示部312の表示画面のうち指の可動範囲内に、ブラウザ機能の戻り操作(直前に表示していた画面(ウェブページ等)のブラウザ画像を表示させる操作)のタッチ領域を設定するようにしてもよい。例えば、アプリケーション処理部490は、第2表示部312の表示画面のうち指の可動範囲全体を、戻り操作のタッチ領域に設定する。
そして、アプリケーション処理部490は、設定したタッチ領域へのタッチ操作が行われると、第1表示部311に、直前に表示していた画面のブラウザ画像を表示させる。すなわち、アプリケーション処理部490は、第1表示部311の表示する画面を戻す。
これによって、ユーザは、例えば人差し指または中指でのタッチ操作という容易な操作で、ブラウザに表示される画面を戻すことができる。
そして、アプリケーション処理部490は、設定したタッチ領域へのタッチ操作が行われると、第1表示部311に、直前に表示していた画面のブラウザ画像を表示させる。すなわち、アプリケーション処理部490は、第1表示部311の表示する画面を戻す。
これによって、ユーザは、例えば人差し指または中指でのタッチ操作という容易な操作で、ブラウザに表示される画面を戻すことができる。
なお、アプリケーション処理部490が、第1表示部311の表示画面にカーソルを表示させ、傾き検出部460の検出する携帯端末装置300の筐体の傾きに応じてカーソルを移動(スクロール)させる状態、すなわち、重力スクロールを行う状態において、アプリケーション処理部490が、第2表示部312の表示画面のうち指の可動範囲内に、カーソル(スクロール)停止操作のタッチ領域を設定するようにしてもよい。例えば、アプリケーション処理部490は、第2表示部312の表示画面のうち指の可動範囲全体を、カーソル停止操作のタッチ領域に設定する。
そして、アプリケーション処理部490は、設定したタッチ領域へのタッチ操作が行われると、第1表示部311の表示画面に表示させるカーソルを停止させる。すなわち、アプリケーション処理部490は、重力スクロールを中止させる。
これによって、ユーザは、例えば人差し指または中指でのタッチ操作という容易な操作で、カーソルを停止させることができる。
そして、アプリケーション処理部490は、設定したタッチ領域へのタッチ操作が行われると、第1表示部311の表示画面に表示させるカーソルを停止させる。すなわち、アプリケーション処理部490は、重力スクロールを中止させる。
これによって、ユーザは、例えば人差し指または中指でのタッチ操作という容易な操作で、カーソルを停止させることができる。
なお、制御部180または制御部380の全部または一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
本願は、2011年9月27日に、日本に出願された特願2011-210586号に基づき優先権を主張し、その内容をここに援用する。
本発明に係わるタッチセンサを備えた携帯型情報機器によれば、タッチ操作を受け付けるタッチ領域をより適切に設定することができる。
100 携帯端末装置
110 表示部
120 操作入力部
130 側面センサ部
141 音声入力部
142 音声出力部
150 無線通信部
180 制御部
190 記憶部
210 表示制御部
220 入力処理部
225 指長取得部
230 支点位置検出部
235 可動範囲取得部
240 音声処理部
250 通信制御部
290 アプリケーション処理部
300 携帯端末装置
311 第1表示部
312 第2表示部
321 第1操作入力部
322 第2操作入力部
360 重力センサ部
380 制御部
410 表示制御部
420 入力処理部
425 指長取得部
430 支点位置検出部
435 可動範囲取得部
460 傾き検出部
490 アプリケーション処理部
110 表示部
120 操作入力部
130 側面センサ部
141 音声入力部
142 音声出力部
150 無線通信部
180 制御部
190 記憶部
210 表示制御部
220 入力処理部
225 指長取得部
230 支点位置検出部
235 可動範囲取得部
240 音声処理部
250 通信制御部
290 アプリケーション処理部
300 携帯端末装置
311 第1表示部
312 第2表示部
321 第1操作入力部
322 第2操作入力部
360 重力センサ部
380 制御部
410 表示制御部
420 入力処理部
425 指長取得部
430 支点位置検出部
435 可動範囲取得部
460 傾き検出部
490 アプリケーション処理部
Claims (10)
- 携帯型電子機器であって、
タッチ位置を検出するタッチセンサと、
前記携帯型電子機器を把持した状態で指を動かす際の指の支点位置を検出する支点位置検出部と、
前記指の長さを取得する指長取得部と、
前記タッチセンサがタッチを検出できる領域のうち、前記指の支点位置および前記指の長さに基づいて求められる指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定するタッチ領域設定部と
を備えた携帯型電子機器。 - 前記タッチセンサは、前記携帯型電子機器を把持する手の親指で操作可能なタッチ入力装置である前面タッチセンサであり、
前記支点位置検出部は、親指の支点位置を検出し、
前記指長取得部は、前記親指の長さを取得し、
前記タッチ領域設定部は、前記前面タッチセンサがタッチを検出できる領域のうち前記親指の支点位置および前記親指の長さに基づいて求められる親指の可動範囲内に、前記前面タッチセンサにおけるタッチ領域を設定する請求項1に記載の携帯型電子機器。 - 前記携帯型電子機器を把持する手の人差し指、中指、薬指または小指のいずれかで操作可能なタッチセンサである背面タッチセンサをさらに備え、
前記支点位置検出部は、前記人差し指、中指、薬指または小指の少なくともいずれか1つの支点位置を検出し、
前記指長取得部は、前記支点位置検出部が支点位置を検出した指の長さを取得し、
前記タッチ領域設定部は、前記背面タッチセンサがタッチを検出できる領域のうち、前記支点位置検出部が検出した指の支点位置および前記指長取得部が取得した指の長さに基づいて求められる指の可動範囲内に、前記背面タッチセンサにおけるタッチ領域を設定する請求項2に記載の携帯型電子機器。 - 表示画面を有する表示部と、
前記背面タッチセンサが、前記タッチ領域設定部が設定した前記タッチ領域内でタッチ位置を検出すると、前記表示画面の前記タッチ位置に応じた位置にカーソルを表示させる表示制御部とを有する請求項3に記載の携帯型電子機器。 - 表示画面を有する表示部と、
前記表示画面にアイコンを表示させる表示制御部と、
前記前面タッチセンサの検出するタッチ操作および前記背面タッチセンサの検出するタッチ操作に応じて処理を行う処理部と、
を有し、
前記前面タッチセンサは、前記表示画面に設けられ、
前記背面タッチセンサは、前記表示画面の背面に設けられ、
前記処理部は、前記前面タッチセンサが前記アイコンの表示領域へのタッチ操作を受け付けた場合と、前記背面タッチセンサが前記アイコンの表示領域の背面領域へのタッチ操作を受け付けた場合とで異なる処理を行う請求項3に記載の携帯型電子機器。 - 表示画面を有する表示部と、
前記表示部が前記表示画面にブラウザ画像を表示する状態において、前記背面タッチセンサが、前記タッチ領域設定部が設定した前記タッチ領域内でタッチ位置を検出すると、前記表示部に、直前に表示していた画面のブラウザ画像を表示させる処理部とをそなえた請求項3に記載の携帯型電子機器。 - 前記携帯型電子機器の筐体の傾きを検出する傾き検出部と、
前記表示画面にカーソルを表示させ、前記傾き検出部の検出する前記傾きに応じて前記カーソルを移動させ、前記背面タッチセンサが、前記タッチ領域設定部が設定した前記タッチ領域内でタッチ操作を検出すると、前記カーソルを停止させる表示制御部とを備えた請求項4に記載の携帯型電子機器。 - 表示画面を有する表示部と、
前記表示画面にアイコンを表示させる表示制御部と、
前記前面タッチセンサの検出するタッチ操作および前記背面タッチセンサの検出するタッチ操作に応じて処理を行う処理部と、
を有し、
前記前面タッチセンサは、前記表示画面に設けられ、
前記背面タッチセンサは、前記表示画面の背面に設けられ、
前記処理部は、前記前面タッチセンサが前記アイコンの表示領域へのタッチ操作を受け付けた場合と、前記背面タッチセンサが前記アイコンの表示領域の背面領域へのタッチ操作を受け付けた場合とで同一の処理を行う
ことを特徴とする請求項3に記載の携帯型電子機器。 - タッチ位置を検出するタッチセンサを有する携帯型電子機器のタッチ領域設定方法であって、
前記携帯型電子機器を把持した状態で指を動かす際の指の支点位置を検出する支点位置検出ステップと、
前記指の長さを取得する指長取得ステップと、
前記タッチセンサがタッチを検出できる領域のうち前記指の支点位置および前記指の長さに基づいて求められる指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定するタッチ領域設定ステップとを有するタッチ領域設定方法。 - タッチ位置を検出するタッチセンサを有する携帯型電子機器としてのコンピュータに、
前記携帯型電子機器を把持した状態で指を動かす際の指の支点位置を検出する支点位置検出ステップと、
前記指の長さを取得する指長取得ステップと、
前記タッチセンサがタッチを検出できる領域のうち前記指の支点位置および前記指の長さに基づいて求められる指の可動範囲内に、所定の入力操作としてのタッチ操作を受け付けるタッチ領域を設定するタッチ領域設定ステップと、
を実行させるタッチ領域設定プログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US14/347,633 US20140232653A1 (en) | 2011-09-27 | 2012-09-18 | Portable electronic apparatus, touch region setting method, and touch region setting program |
| EP12835749.8A EP2763011A1 (en) | 2011-09-27 | 2012-09-18 | Portable electronic apparatus, touch region setting method, and touch region setting program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011-210586 | 2011-09-27 | ||
| JP2011210586A JP2013073330A (ja) | 2011-09-27 | 2011-09-27 | 携帯型電子機器、タッチ領域設定方法およびプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2013047271A1 true WO2013047271A1 (ja) | 2013-04-04 |
Family
ID=47995303
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2012/073838 Ceased WO2013047271A1 (ja) | 2011-09-27 | 2012-09-18 | 携帯型電子機器、タッチ領域設定方法およびタッチ領域設定プログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20140232653A1 (ja) |
| EP (1) | EP2763011A1 (ja) |
| JP (1) | JP2013073330A (ja) |
| WO (1) | WO2013047271A1 (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2015178094A1 (ja) * | 2014-05-23 | 2015-11-26 | シャープ株式会社 | 携帯端末、及び当該携帯端末による操作処理方法 |
| JP2019032434A (ja) * | 2017-08-08 | 2019-02-28 | 大日本印刷株式会社 | 表示装置 |
| TWI738361B (zh) * | 2013-11-29 | 2021-09-01 | 日商半導體能源研究所股份有限公司 | 資料處理裝置及資料處理裝置的驅動方法 |
Families Citing this family (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103543842B (zh) * | 2012-07-16 | 2017-05-24 | 联想(北京)有限公司 | 终端设备 |
| WO2014176370A2 (en) * | 2013-04-23 | 2014-10-30 | Handscape Inc. | Method for user input from alternative touchpads of a computerized system |
| CN105190515A (zh) * | 2013-05-08 | 2015-12-23 | 富士通株式会社 | 输入装置以及输入程序 |
| JP6209020B2 (ja) * | 2013-08-22 | 2017-10-04 | シナプティクス・ジャパン合同会社 | 半導体集積回路装置、表示装置および情報機器 |
| JP6196101B2 (ja) * | 2013-09-02 | 2017-09-13 | 株式会社東芝 | 情報処理装置、方法およびプログラム |
| TWI647607B (zh) * | 2013-10-11 | 2019-01-11 | 半導體能源研究所股份有限公司 | 可攜式資料處理裝置及驅動該可攜式資料處理裝置的方法 |
| JP6530160B2 (ja) * | 2013-11-28 | 2019-06-12 | 京セラ株式会社 | 電子機器 |
| JP6478655B2 (ja) * | 2015-01-26 | 2019-03-06 | シャープ株式会社 | 携帯端末 |
| US20170024086A1 (en) * | 2015-06-23 | 2017-01-26 | Jamdeo Canada Ltd. | System and methods for detection and handling of focus elements |
| KR102168648B1 (ko) | 2016-01-07 | 2020-10-21 | 삼성전자주식회사 | 사용자 단말 장치 및 그 제어 방법 |
| KR102481632B1 (ko) | 2016-04-26 | 2022-12-28 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 디스플레이를 이용한 적응적 터치 입력 방법 |
| CN105912263A (zh) * | 2016-06-07 | 2016-08-31 | 惠州Tcl移动通信有限公司 | 一种移动终端的单手操作方法、系统 |
| CN108319414A (zh) * | 2018-01-31 | 2018-07-24 | 北京小米移动软件有限公司 | 界面显示方法及装置 |
| US11822743B2 (en) * | 2019-06-12 | 2023-11-21 | Nippon Telegraph And Telephone Corporation | Touch panel information terminal apparatus and information input processing method implemented with dual input devices arranged on two surfaces |
| US11516335B2 (en) * | 2020-01-21 | 2022-11-29 | Motorola Mobility Llc | Personalizable UI component layout on curved glass |
| US11176862B2 (en) | 2020-01-21 | 2021-11-16 | Motorola Mobility Llc | Managing notifications on a curved display surface |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008027183A (ja) * | 2006-07-21 | 2008-02-07 | Sharp Corp | 情報処理装置 |
| WO2009031214A1 (ja) * | 2007-09-05 | 2009-03-12 | Panasonic Corporation | 携帯端末装置、及び表示制御方法 |
| JP2009163278A (ja) * | 2007-12-21 | 2009-07-23 | Toshiba Corp | 携帯型機器 |
| JP2010020601A (ja) | 2008-07-11 | 2010-01-28 | Nec Corp | 携帯端末、タッチパネルの項目配置方法およびプログラム |
| JP2010079786A (ja) * | 2008-09-29 | 2010-04-08 | Equos Research Co Ltd | 端末装置 |
| JP2010108071A (ja) * | 2008-10-28 | 2010-05-13 | Fujifilm Corp | 画像表示装置、画像表示方法およびプログラム |
| WO2010071188A1 (ja) * | 2008-12-16 | 2010-06-24 | 日本電気株式会社 | 携帯端末装置及びキー配置制御方法 |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6690358B2 (en) * | 2000-11-30 | 2004-02-10 | Alan Edward Kaplan | Display control for hand-held devices |
| KR200450989Y1 (ko) * | 2008-07-25 | 2010-11-16 | 이노디지털 주식회사 | 양면 터치스크린을 구비한 플랫 패널 형상의 모바일 장치 |
| US20120162078A1 (en) * | 2010-12-28 | 2012-06-28 | Bran Ferren | Adaptive virtual keyboard for handheld device |
| JP5816834B2 (ja) * | 2011-03-22 | 2015-11-18 | パナソニックIpマネジメント株式会社 | 入力装置、および入力方法 |
-
2011
- 2011-09-27 JP JP2011210586A patent/JP2013073330A/ja active Pending
-
2012
- 2012-09-18 WO PCT/JP2012/073838 patent/WO2013047271A1/ja not_active Ceased
- 2012-09-18 EP EP12835749.8A patent/EP2763011A1/en not_active Withdrawn
- 2012-09-18 US US14/347,633 patent/US20140232653A1/en not_active Abandoned
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008027183A (ja) * | 2006-07-21 | 2008-02-07 | Sharp Corp | 情報処理装置 |
| WO2009031214A1 (ja) * | 2007-09-05 | 2009-03-12 | Panasonic Corporation | 携帯端末装置、及び表示制御方法 |
| JP2009163278A (ja) * | 2007-12-21 | 2009-07-23 | Toshiba Corp | 携帯型機器 |
| JP2010020601A (ja) | 2008-07-11 | 2010-01-28 | Nec Corp | 携帯端末、タッチパネルの項目配置方法およびプログラム |
| JP2010079786A (ja) * | 2008-09-29 | 2010-04-08 | Equos Research Co Ltd | 端末装置 |
| JP2010108071A (ja) * | 2008-10-28 | 2010-05-13 | Fujifilm Corp | 画像表示装置、画像表示方法およびプログラム |
| WO2010071188A1 (ja) * | 2008-12-16 | 2010-06-24 | 日本電気株式会社 | 携帯端末装置及びキー配置制御方法 |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| TWI738361B (zh) * | 2013-11-29 | 2021-09-01 | 日商半導體能源研究所股份有限公司 | 資料處理裝置及資料處理裝置的驅動方法 |
| US11294561B2 (en) | 2013-11-29 | 2022-04-05 | Semiconductor Energy Laboratory Co., Ltd. | Data processing device having flexible position input portion and driving method thereof |
| US11714542B2 (en) | 2013-11-29 | 2023-08-01 | Semiconductor Energy Laboratory Co., Ltd. | Data processing device and driving method thereof for a flexible touchscreen device accepting input on the front, rear and sides |
| US12197717B2 (en) | 2013-11-29 | 2025-01-14 | Semiconductor Energy Laboratory Co., Ltd. | Data processing device and driving method for selectively stopping images to a region when it is held by a user right or left hand |
| WO2015178094A1 (ja) * | 2014-05-23 | 2015-11-26 | シャープ株式会社 | 携帯端末、及び当該携帯端末による操作処理方法 |
| JP2019032434A (ja) * | 2017-08-08 | 2019-02-28 | 大日本印刷株式会社 | 表示装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP2763011A1 (en) | 2014-08-06 |
| US20140232653A1 (en) | 2014-08-21 |
| JP2013073330A (ja) | 2013-04-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2013047271A1 (ja) | 携帯型電子機器、タッチ領域設定方法およびタッチ領域設定プログラム | |
| JP5759660B2 (ja) | タッチ・スクリーンを備える携帯式情報端末および入力方法 | |
| RU2605359C2 (ru) | Способ управления касанием и портативный терминал, поддерживающий его | |
| US9141195B2 (en) | Electronic device and method using a touch-detecting surface | |
| US20130082824A1 (en) | Feedback response | |
| US20100214218A1 (en) | Virtual mouse | |
| KR101317290B1 (ko) | 휴대용 전자 디바이스 및 이것의 제어 방법 | |
| KR20110066974A (ko) | 2차 문자 표현 및 입력의 휴대용 전자 디바이스 및 방법 | |
| JPWO2012049942A1 (ja) | 携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法 | |
| JP6246640B2 (ja) | 電子機器 | |
| JP2012027875A (ja) | 電子機器、処理方法及びプログラム | |
| KR20110093488A (ko) | 휴대용 단말기에서 메뉴 실행 방법 및 이를 제공하는 장치 | |
| JP2014052852A (ja) | 情報処理装置 | |
| JPWO2011135944A1 (ja) | 情報処理端末およびその操作制御方法 | |
| WO2010041155A1 (en) | Live preview of open windows | |
| CN102693003A (zh) | 基于多输入的终端的操作方法和支持该方法的便携式终端 | |
| TW200928948A (en) | Method for operating handheld electronic device and touch interface apparatus and storage media using the same | |
| KR20120024299A (ko) | 사용자 인터페이스 제공 방법 및 이를 이용하는 이동 단말기 | |
| KR20110133450A (ko) | 휴대용 전자 디바이스 및 이의 제어 방법 | |
| JP6078375B2 (ja) | 電子機器及び制御プログラム並びに電子機器の動作方法 | |
| JP2012198626A (ja) | 情報端末、表示画面切り替えのための方法、及びそのプログラム | |
| TW200928916A (en) | Method for operating software input panel | |
| US9274632B2 (en) | Portable electronic device, touch operation processing method, and program | |
| KR20190008949A (ko) | 터치 패널에서 사용하기 위한 터치 응답 방법 및 장치 및 그 단말 | |
| JP2013246614A (ja) | タッチ検出機能を有する電子機器、プログラムおよびタッチ検出機能を有する電子機器の制御方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12835749 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 14347633 Country of ref document: US |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2012835749 Country of ref document: EP |