[go: up one dir, main page]

WO2011102406A1 - タッチパネル入力装置 - Google Patents

タッチパネル入力装置 Download PDF

Info

Publication number
WO2011102406A1
WO2011102406A1 PCT/JP2011/053347 JP2011053347W WO2011102406A1 WO 2011102406 A1 WO2011102406 A1 WO 2011102406A1 JP 2011053347 W JP2011053347 W JP 2011053347W WO 2011102406 A1 WO2011102406 A1 WO 2011102406A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
input
touch panel
point
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2011/053347
Other languages
English (en)
French (fr)
Inventor
茂秀 矢野
和則 久
崇 大木
田中 雅英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohm Co Ltd
Original Assignee
Rohm Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2010033557A external-priority patent/JP5702540B2/ja
Priority claimed from JP2010061817A external-priority patent/JP2011197848A/ja
Priority claimed from JP2010063751A external-priority patent/JP5702546B2/ja
Priority claimed from JP2010085948A external-priority patent/JP2011215539A/ja
Priority claimed from JP2010096851A external-priority patent/JP2011227703A/ja
Priority claimed from JP2010100795A external-priority patent/JP5502584B2/ja
Priority to CN2011800196740A priority Critical patent/CN102844732A/zh
Priority to US13/579,378 priority patent/US9250800B2/en
Application filed by Rohm Co Ltd filed Critical Rohm Co Ltd
Publication of WO2011102406A1 publication Critical patent/WO2011102406A1/ja
Anticipated expiration legal-status Critical
Priority to US14/978,082 priority patent/US9760280B2/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/018Input/output arrangements for oriental characters
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0235Character input methods using chord techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to a touch panel input device.
  • Patent Document 1 proposes a digital camera provided with a touch panel.
  • Patent Document 2 and Patent Document 3 propose an analog resistive film type touch panel capable of detecting two touch positions.
  • Patent Document 4 includes a display device that can act as a dial button of a touch panel, and can be turned in the direction of arrow D by observing the display device by allowing the camera lens to rotate.
  • a digital camera has been proposed that can be aimed at people.
  • an object of the present invention is to provide a practical touch panel input device using a touch panel capable of detecting multiple points.
  • a touch panel input device includes a touch panel, a right hand two-point touch input detection mode suitable for right finger placement, and a left hand two point touch input suitable for left finger placement.
  • the detection mode can be switched, and the input control unit detects a two-point touch on the touch panel in any one of the input detection modes.
  • FIG. 2 is a display screen diagram when a menu selection operation is performed with the left hand from the driver seat side of the right-hand drive vehicle in the resistive touch panel display unit of FIG. 1.
  • FIG. 4 is a display screen diagram when a menu selection operation is performed with the right hand from the passenger seat side of the right-hand drive vehicle in the resistive touch panel display unit of FIG. 1.
  • It is a display screen figure in the case of performing destination input operation in the resistive film type touch panel display part of FIG.
  • FIG. 7 is a screen diagram illustrating an operation of reducing the map to a wide area side with a predetermined reduction rate centered on a desired point when there is a history of the map being enlarged through the progress of FIG. 6.
  • FIG. 6 is a screen diagram when a map enlargement operation is performed from the state of FIG. 5A regardless of where the absolute positions of the two points are;
  • FIG. 6 is a screen diagram when a map reduction operation is performed from the state of FIG. 5A regardless of where the absolute positions of the two points are.
  • Example 2 is a screen diagram illustrating a subject image displayed on a resistive film type touch panel display unit of Example 2.
  • 10 is a flowchart of an operation of a control unit in the second embodiment.
  • Example 3 The screen figure at the time of enlarging a map in Example 3 of the touch panel input device concerning an embodiment of the invention from the state of Drawing 5 (A) used regardless of where the absolute position of two points is. It is. (Example 3) In Example 3, it is a screen figure at the time of reducing a map regardless of where the absolute position of two points is from the state of FIG. It is a flowchart which shows the detail of the map touch process of FIG.10 S24 used in Example 3.
  • FIG. It is a block diagram which shows Example 4 of the touchscreen input device which concerns on embodiment of this invention.
  • Example 4 FIG. 10 is a screen diagram showing a subject image during zooming that is displayed in a horizontally long state on the resistive touch panel display unit according to the fourth embodiment.
  • FIG. 10 is a screen diagram showing a subject image during zooming that is displayed in a horizontally long state on the resistive touch panel display unit according to the fourth embodiment.
  • FIG. 10 is a screen diagram illustrating a subject image at the time of reduction zoom displayed in a horizontally long state on the resistive touch panel display unit according to the fourth embodiment.
  • FIG. 10 is a screen diagram illustrating a subject image during zooming displayed in a vertically long state on the resistive touch panel display unit according to the fourth embodiment.
  • 10 is a flowchart of an operation of a control unit in the fourth embodiment. It is a flowchart which shows the detail of step S204 of FIG. It is a flowchart which shows the detail of step S230 of FIG. It is a flowchart which shows the detail of step S234 of FIG. It is a flowchart of operation
  • Example 5 It is a flowchart which shows the detail of step S314 of FIG. It is a screen figure which shows the reproduction
  • FIG. It is an external appearance perspective view which shows Example 6 of the touchscreen input device which concerns on embodiment of this invention. (Example 6) It is a flowchart explaining the function of the control part at the time of using the structure of FIG. It is a flowchart which shows the detail of step S340 of FIG.
  • FIG. 1 is a block diagram showing Example 1 of the touch panel input device according to the embodiment of the present invention.
  • the first embodiment constitutes a vehicle navigation device (hereinafter referred to as a car navigation device) 2, which has a control unit 4 composed of a computer for controlling the entire device, and the car navigation device 2 according to the operation of the operation unit 6 by the driver.
  • the function of the control unit 4 is executed by software stored in the storage unit 8.
  • the storage unit 8 also temporarily stores various data necessary for controlling the car navigation device 2. Further, the control unit 4 controls the display of the resistive touch panel display unit 12 via the display driver 10, displays a GUI display necessary for the operation of the operation unit 6, and displays a control result.
  • the resistive touch panel display unit 12 is a display unit and a touch panel input device, and is a GUI operation unit that performs an input operation by directly touching the display.
  • the resistive touch panel display unit 12 is connected to the control unit 4 by four output lines (in FIG. 1, shown as a single line indicating the information transmission direction for simplicity) that outputs the touch position information of the top, bottom, left, and right.
  • the controller 4 is connected, and the four-wire output is analyzed to detect the two touch positions and their movement. Details of the input by detecting the touch position of these two points will be described later.
  • the GPS unit 14 obtains information on latitude, longitude, and altitude, which are absolute position information of the vehicle on which the car navigation device 2 is mounted, from the satellite and the nearest broadcasting station based on the GPS system and sends the information to the control unit 4.
  • the control unit 4 processes the absolute position information from the GPS unit 14 and displays the position of the vehicle on the map provided by the map storage unit 16 on the resistive touch panel display unit 12.
  • the car navigation device 2 includes a wireless communication unit 18 and an input / output unit 20 via a cable in order to communicate with the outside wirelessly for updating the map information stored in the map storage unit 16.
  • the wireless communication unit 18 may be an ordinary telephone line or a dedicated short-range wireless communication unit.
  • these wireless communication unit 18 and input / output unit 20 may communicate with the outside to obtain such information when a function upgrade or maintenance data is generated for a car navigation system or a GPS system. it can.
  • the operation information input to the control unit 4 can be performed by voice from the microphone 19 in addition to the operation from the operation unit 6 or the resistive touch panel display unit 12.
  • information output to the driver or the like can be performed by voice through the speaker 21.
  • FIG. 2 to 9 are display screen diagrams for explaining various functions related to display and two-point touch detection in the resistive touch panel display unit (hereinafter, abbreviated as “display unit”) 12 of FIG. .
  • the display unit 12 is usually arranged near the center of the vehicle. For example, in the case of a right-hand drive vehicle, the driver or the passenger on the passenger seat uses the touch panel on the display unit 12. A description will be given of how various GUI operations are performed using the above.
  • FIG. 2 shows a case where a GUI operation for selecting a menu is performed by touching a menu displayed on the display unit 12.
  • FIG. 2 shows a case where the driver is operating.
  • the operating hand is the left hand 22.
  • the thumb or any other finger for example, the middle finger
  • the fingertip of the thumb is positioned lower than the fingertips of the other fingers as shown in FIG. Therefore, a line connecting the touch position 26 of the thumb touch position 24 and any other finger (for example, the middle finger, which will be described below by taking the middle finger as an example) is usually lowered to the right (touched on the display unit 12). (When the touch position 24 is viewed from the position 26).
  • the control unit 4 When the control unit 4 detects that two lower right points are in the simultaneous touch state based on the information from the display unit 12, the control unit 4 instructs the display driver 10 to display the left-hand menu layout as shown in FIG. Display. Specifically, in the left-hand menu layout, the destination menu 28, the audio menu 30, and the air conditioner menu 32 where a touch other than the thumb of the left hand 22 is scheduled are arranged on the upper left side of the display unit 12, and the touch of the thumb The decision area 34 scheduled for is arranged near the lower right side of the display unit 12.
  • the absolute position of the thumb touch position 24 and the middle finger touch position 26 may be anywhere, and the line connecting the two points in the simultaneous touch state is relatively lower right. Only that is the determination information.
  • menu selection in such a left-hand layout will be described.
  • the middle finger is touched on one of the menus (for example, the destination menu 28) and the thumb is touched on the decision area 34 at the same time
  • the absolute positions of the thumb touch position 24 and the middle finger touch position 26 are detected.
  • the destination menu 28 and the decision area 34 in which a touch is detected are displayed in a thick frame as shown in FIG.
  • it is also possible to select another menu by shifting the touch position of the middle finger while continuing to touch the determination area 34 of the thumb, and in response to this, a thick frame display is displayed from the destination menu 28 as an audio.
  • menu 30 or air conditioner menu 32 Move to menu 30 or air conditioner menu 32.
  • Such menu selection can be moved by moving the left hand 22 up and down as indicated by the white arrow 36.
  • the determination area 34 is set to be long in the vertical direction so that the touch state is maintained even when the thumb moves in parallel up and down as indicated by the white arrow 38 by the parallel movement of the left hand 22.
  • the change in menu selection is not limited to the case where the left hand 22 is translated up and down as described above, and any two-point touch can be performed according to the natural movement of the left hand 22. Examples of other hand movements will be described later.
  • the menu selection screen after the left-hand layout is displayed as shown in FIG. 2, unless a simultaneous touch state of any one of the menus 28, 30, and 32 and the decision area 34 is detected, the menu responds to this. 28, 30, 32 and the decision area 34 do not change to a thick frame display.
  • FIG. 3 is a display screen diagram when the display unit 12 is operated from the passenger seat side of the right-hand drive vehicle.
  • the operating hand is the right hand 42.
  • the fingertip of the thumb of the right hand 42 is lower than the fingertips of the other fingers as shown in FIG. Therefore, the line connecting the touch position 44 of the thumb and the touch position 46 of the middle finger is usually left-down (when the touch position 44 is viewed from the touch position 46 on the display unit 12).
  • the control unit 4 when the control unit 4 detects that two points on the lower left are in the simultaneous touch state based on the information from the display unit 12, the control unit 4 instructs the display driver 10 to display the right-hand menu layout as shown in FIG. This is displayed on the unit 12. More specifically, in the right-hand menu layout, the destination menu 48, the audio menu 50, and the air conditioner menu 52 are arranged near the upper right of the display unit 12, and the decision area 54 where a thumb touch is scheduled is displayed on the display unit. 12 is arranged on the lower left side. In this way, the layout when operating with the right hand 42 from the left side of the display unit 12 in FIG. 3 is bilaterally symmetrical with the operation with the left hand 22 from the right side of the display unit 12 as shown in FIG. And there will be no confusion. As in the case of determining the left-hand layout, at the stage where the control unit 4 instructs the right-hand menu display, only the fact that the line connecting the two points in the simultaneous touch state is relatively lower left is the determination information. .
  • FIG. 3 shows an example of a two-point touch by a different hand movement from that in FIG. 2, but the two-point touch by a natural hand movement is possible without being limited to FIG. 2 and FIG. Needless to say.
  • Such a menu selection change does not necessarily have to be performed while maintaining the two-point touch state as described above, and once the finger is completely removed from the display unit 12, and then the middle finger and the new finger are selected for a new selection.
  • the thumb touch may be performed as in the case of FIG. Similarly to the case of FIG. 2A, it is not necessary to touch two points completely at the same time.
  • the menu selection is confirmed in the same manner as in FIG. 2A. For example, when the audio menu 50 and the decision menu 54 are displayed in a thick frame as shown in FIG. If the user continues to slide the thumb toward the middle finger as indicated by the black arrow 58 and drags the decision area 54 toward the audio menu 50, the selection of the audio menu 50 is finalized when the two overlap. Then, when the right hand 42 is released from the display unit 12, the display color of the audio menu 50 whose selection has been confirmed changes as shown in FIG. 3B, indicating that the menu selection has been confirmed.
  • control unit 4 does not display the left-hand layout of FIG. 2 when the vehicle is traveling even when the right-down two-point simultaneous touch state is detected,
  • the menu change operation is prohibited ”is notified to the driver by display on the display unit 12 or announcement of the speaker 21. This is to prevent accidents caused by the operation of the driver while traveling.
  • the control unit 4 detects a two-point simultaneous touch state with a lower left, the right hand layout of FIG. 3 is displayed whether the vehicle is stopped or traveling, so that the You can ask the passenger in the passenger seat to change the menu.
  • the right-hand layout it is not impossible to make a two-point left-down touch with the driver's right hand (or an unnatural posture of the left hand). In order to avoid taking excessive action, make a thorough announcement in the instruction manual in advance.
  • FIG. 4 is a display screen diagram for destination input that is automatically displayed when the selection of the destination menu is determined as shown in FIG.
  • FIG. 4A shows a left-hand layout, which is displayed by detecting that the line connecting the two touched points is relatively lower right as in FIG. 2A.
  • two relative positions of the touch position 60 of the thumb and the touch position 62 of a finger other than the thumb are detected.
  • each line other than “A” of “Akasata Hamawara” where a touch other than the thumb of the left hand 22 is scheduled is indicated.
  • K ”,“ S ”,“ T ”,“ N ”,“ H ”,“ M ”,“ Y ”,“ R ”,“ W ”consonant button group 64 (for simplicity, only“ K ”is representative. Numbering) is arranged in the vicinity of the upper end of the screen of the display unit 12 and “a”, “i”, “u”, “e”, A group of “o” vowel buttons 66 (for simplicity, only “a” is numbered as a representative) is arranged near the right end of the screen of the display unit 12.
  • any combination of consonants and vowels can be specified by two-point touch of any one of the consonant buttons with a finger other than the thumb and the vowel button with the thumb.
  • the pseudonym of the “A” line can be designated by touching the blank button 68 with a finger other than the thumb and two-point touching with a vowel button with the thumb.
  • “n” can be designated by touching the blank button 68 with a finger other than the thumb and two-point touch of the “n” button 70 with the thumb.
  • the above input does not allow you to input muddy sounds, semi-turbid sounds, repellent sounds, prompt sounds, stuttering, etc., but the destination input is not a new input, it is information for searching place names etc. originally registered on the map.
  • the corresponding portion is automatically corrected to muddy sound, semi-turbid sound, repelling sound, sounding sound, and roaring sound by inferring from the arrangement by software. If the number of consonant buttons such as “G”, “P”, and “Ky” is increased on the display unit 12, it is also possible to directly input a muddy sound, a semi-turbid sound, a repellent sound, a prompt sound, and a stuttering sound.
  • the forefinger first touches either the consonant button group 64 or the blank button 68, and then the vowel button group 66 or the “n” button 70 with the thumb. Either of these may be touched or vice versa.
  • the “T” button of the consonant button group 64 and the “u” button of the vowel button group 66 are bold.
  • the thumb is slid toward the index finger as indicated by the black arrow 72 while touching the index finger and thumb.
  • the “u” button of the vowel button group 66 is dragged from the decision area 34 of the consonant button group 64 toward the destination menu 24. Determine. Then, the kana whose input has been newly confirmed is displayed in capital letters after the confirmed character in the input window 74 as “T”.
  • the operation for confirming the kana becomes an operation according to the romanized writing of the kana, and there is little discomfort. This is suitable for Japanese Romaji input, but is also suitable for inputting Korean characters with a similar consonant and vowel combination character structure.
  • the addition of the patch is continued by inputting the basic structure of the character and then combining the combination of the patch button and the consonant button arranged in the row of vowel buttons like the “n” button 70 or 80 in FIG. Input by specifying the additional.
  • a numeric keypad button 76 for inputting numbers is further displayed near the center of the screen of the display unit 12.
  • Such an arrangement of the numeric key buttons 76 arranges the consonant button group 64 in the vicinity of the upper end of the screen of the display unit 12 and arranges the vowel button group 66 in the vicinity of the right end of the screen of the display unit 12 to secure an empty space in the center of the screen. This is possible.
  • Numeric input using the numeric keypad 76 is performed by one-point touch in which one of the numeric keypads 76 is touched as usual.
  • a predetermined time for example, one second
  • the user is required to perform the second point touch within a predetermined time after the first point touch, although it is not necessary to be simultaneous. Become. In this way, identification of one-point touch or two-point touch is performed by setting the predetermined time.
  • FIG. 4B shows a right-hand layout for a destination input, and it is detected that a line connecting two touched points is relatively leftward as in FIG. 3A. Is displayed.
  • the consonant button group 64 and the blank button 68 that are expected to be touched except for the thumb of the right hand 42 are located near the upper end of the screen of the display unit 12 in the same manner as in FIG. Be placed.
  • the layout is shifted slightly to the right as shown in FIG.
  • the consonant arrangement order itself is the same as in FIG. 4A to avoid confusion.
  • the consonant button group 64 and the blank button 68 may be completely the same for the left-hand layout in FIG. 4A and the right-hand layout in FIG. 4B.
  • the vowel button group 78 and the “n” button 80 that are expected to touch the thumb of the right hand 42 are different from the layout for the left hand in FIG.
  • the display unit 12 is arranged near the left end of the screen.
  • the arrangement of the buttons in the vertical direction is the same as that in FIG. 4A to avoid confusion.
  • such a layout allows the kana to be input with the natural posture of the right hand in the same manner as in FIG.
  • the specification of kana by the combination of consonant buttons and vowel buttons in the right-hand layout of FIG. 4B and the confirmation of kana input by dragging the vowel buttons are the same as in the left-hand layout of FIG. To do.
  • the input window 82 is shifted to the left of the screen in FIG.
  • the arrangement of the numeric key buttons 76 in the right-hand layout in FIG. 4B is the same as that in the left-hand layout in FIG.
  • the control unit 4 does not display the left-hand layout in FIG. 4A when the vehicle is traveling even when the two-point simultaneous touching state of lower right is detected. Instead, the driver is informed by the display on the display unit 12 or the announcement of the speaker 21 that the menu change operation is prohibited by the driver while driving.
  • FIGS. 5 to 9 are screen views illustrating a map enlargement / reduction operation in a state where a map 86 including the position 84 of the host vehicle is displayed on the display unit 12 and navigation is performed.
  • FIG. 5 is a screen diagram for explaining the difference between the left hand operation and the right hand operation during traveling.
  • the left hand operation is performed by the driver, and the right hand operation is performed by the passenger in the passenger seat. Due to this difference, the present invention is configured so that the right-hand operation and the left-hand operation are different from each other to prevent danger by not placing a burden on the driver, and an operation that more reflects the intention can be performed from the passenger in the passenger seat. It is configured as follows.
  • FIG. 5A it is detected that the line connecting the two points of the thumb touch position 88 and the index finger touch position 90 is relatively right-down, and as a result, the left-hand operation is recognized. To do. In this case, since the subsequent processing is performed using only the relative position as information, regardless of where the absolute positions of the two points are, only the natural touch of the left hand 22 is requested without requiring the driver to provide an accurate touch position. The process is performed based on On the other hand, in FIG. 5B, it is detected that the line connecting the two points of the thumb touch position 92 and the index finger touch position 94 is relatively left-down, and as a result, the right-hand operation is performed. Recognize that there is.
  • the absolute position of the two points of the thumb touch position 92 and the index finger touch position 94 is detected, and a rectangular region 96 having a diagonal line connecting the two points is recognized, and the subsequent processing is performed.
  • the amount increases.
  • an accurate two-point touch is expected.
  • FIG. 6 is a screen diagram showing an operation of enlarging the area to the display unit 12 when the rectangular area 96 is recognized on the map 86 as shown in FIG.
  • the control unit 4 recognizes this movement as an enlargement operation, and enlarges the map portion in the rectangular area 96 in FIG. 6A to the full display unit 12 as in the map 102 in FIG. 6B. In this way, in a right-hand operation while traveling, a desired portion of the displayed map can be cut out and enlarged to the full display unit 12.
  • FIG. 7 is a screen diagram showing an operation of reducing the map 102 to the wide area side with a predetermined reduction rate centering on a desired point when there is a history of the map being enlarged through the process of FIG. That is, the reduction operation is performed when there is a history of operations with the right hand 42 before that.
  • the center position 106 of the reduced map is determined by detecting the touch point 104 of the index finger of the right hand 42. In this case, since it is a one-point touch, it waits for a predetermined time (for example, one second) in order to distinguish it from the first point touch of the two-point touch, and thereafter, if there is no second point touch, it is recognized as a one-point touch.
  • a predetermined time for example, one second
  • the reduced map 108 is displayed so that the center position 106 is at the center of the map as shown in FIG.
  • the reduction rate is reduced at a predetermined rate every time one-point touch is performed. Therefore, when further reduction is desired, one-point touch with the index finger is repeated. It is optional to change the center point of the enlargement in the middle of these operations.
  • FIG. 6 and 7 are described as a right-hand operation when a left-pointing two-point touch is detected. However, when the vehicle is stopped, a right-down two-point touch is detected. A rectangular area as shown in FIG. 5B is set. This is because, when not driving, the driver may request an accurate operation without danger, and the driver stops the vehicle so that the desired area on the map is enlarged and the desired one point is obtained. The map at the center can be reduced.
  • FIG. 11 is a screen diagram when a map enlargement operation is performed in the case of detecting only that it is falling.
  • the thumb and index finger are slid away from each touch position 88 and 90 as indicated by white arrows 110 and 112, and then the left hand 22 is separated from the display unit 12.
  • the control unit 4 recognizes this movement as an enlargement operation, and displays the map 114 enlarged at a predetermined magnification while fixing the center of the map as shown in FIG. 8B.
  • FIG. 9 is a screen diagram when a map reduction operation is performed contrary to FIG. 8 in the case of detecting only a downward movement.
  • the thumb and index finger are slid toward each other as indicated by white arrows 120 and 122 from the respective touch positions 116 and 118 as shown in FIG.
  • the left hand 22 is moved away from the display unit 12.
  • the control unit 4 recognizes this movement as a reduction operation, and displays a map 124 that is reduced at a predetermined magnification while fixing the center of the map as shown in FIG. 9B.
  • the reduction is performed in the case of the reduction operation.
  • the map is reduced at a predetermined rate each time a reduction operation is detected. Accordingly, when further reduction is desired, the approaching operation at the two-point touch position is repeated.
  • FIG. 10 is a flowchart of the operation of the control unit 4 in the first embodiment of FIG.
  • the input / output unit 20 informs that the vehicle engine (or “motor” in the case of an electric vehicle, “engine”) is turned on
  • the flow starts and the initial map to be displayed in step S2
  • the scale is set. This initial scale may be stored and used when the engine was previously turned off, or may be adopted at a predetermined scale each time the engine is turned on.
  • step S4 GPS information indicating the vehicle position from the GPS unit 14 is acquired, and in step S6, a map centered on the vehicle position is displayed on the display unit 12 at the magnification set in step S2. Is done.
  • step S8 it is checked whether or not an operation for requesting menu display has been performed by the operation unit 6.
  • the process proceeds to the menu selection process in step S10. This is a process for executing the operation described with reference to FIGS. 2 and 3, the details of which will be described later.
  • step S12 it is checked whether or not the menu selection has been confirmed. If so, the process proceeds to step S14 to check whether or not the destination input menu has been selected. If the selection of the destination input menu is confirmed, the destination input process of step S16 is executed, and the process proceeds to the map display of step S18 based on the result. Details of the destination input process will be described later.
  • step S14 determines whether the destination input menu is selected. If it is determined in step S14 that the destination input menu is not selected, the process proceeds to step S20, where processing of other menus such as audio processing or air conditioning processing is performed, and the process proceeds to map display in step S18. If the confirmation of menu selection is not confirmed in step S12, the process immediately shifts to the map display in step S18.
  • step S18 When a map is displayed in step S18, it is checked in step S22 whether or not a touch on the map has been detected. If no menu display operation is detected in step S8, the map display in step S6 is continued and the process proceeds to map touch detection in step S22. When a map touch is detected in step S22, the map touch process in step S24 is started. Details thereof will be described later. When the map touch process is completed, the process proceeds to step S26. On the other hand, when no map touch is detected in step S22, the process directly proceeds to step S26. In step S26, it is checked whether or not the engine has been turned off. If engine off is not detected, the process returns to step S4. Hereinafter, unless engine off is detected in step S26, step S2 to step S26 are repeated. When each operation is not detected, the map information is continuously updated while the GPS information acquired in step S4 is updated. When each operation is performed, it corresponds to it. On the other hand, when engine-off is detected in step S26, the flow ends.
  • FIG. 11 is a flowchart showing the details of the menu selection process in step S10 of FIG. 10.
  • step S32 it is first checked in step S32 whether the vehicle is a right-hand drive vehicle. If the vehicle is not a right-hand drive vehicle, in step S34, “right” and “left” in the following processing are reversed to “left” and “right”, respectively, and a reading process is performed, and the process proceeds to step S36. On the other hand, if it is confirmed that the vehicle is a right-hand drive vehicle, the process directly proceeds to step S36.
  • step S34 it is first checked in step S32 whether the vehicle is a right-hand drive vehicle. If the vehicle is not a right-hand drive vehicle, in step S34, “right” and “left” in the following processing are reversed to “left” and “right”, respectively, and a reading process is performed, and the process proceeds to step S36. On the other hand, if it is confirmed that the vehicle is a right-hand drive vehicle, the process directly proceeds to step S36
  • Information on whether the vehicle is a right-hand drive vehicle or a left-hand drive vehicle is obtained from the vehicle by the wireless communication unit 18 or the input / output unit 20. Acquired by exchanging information.
  • the decision on whether to perform left-right reverse reading is the same after the car navigation device 2 is once installed in the vehicle, but it is a portable one that the car navigation device 2 can take out, and then the right-hand drive car also has a left-hand drive. If there is a possibility of being brought into a car, it is meaningful to automatically avoid accidents caused by confusion in processing.
  • Step S36 and subsequent steps show processing for the case of a right-hand drive vehicle when left-right reverse reading in step S34 is not performed.
  • step S36 a right-hand layout is displayed and counting for a predetermined time is started.
  • step S38 it is checked whether a predetermined time has elapsed after the right-hand layout display. If the predetermined time has not elapsed, it is checked in step S40 whether a two-point simultaneous touch state is detected. When the two-point simultaneous touch state is detected, the process proceeds to step S42, and it is checked whether the two detected points are lowered to the right.
  • step S44 the process proceeds to step S44 to check whether the vehicle is traveling. If it is confirmed that the vehicle is not traveling, the process proceeds to step S46, where the left hand layout display is performed instead of the right hand layout display, and the driver can perform the left hand operation, and the process proceeds to step S48.
  • Step S50 is for displaying a right-hand layout instead of the left-hand layout when the left-hand layout is displayed, and when the right-hand layout is displayed from the beginning. No right-hand layout display is continued.
  • Step S42 is for displaying a right-hand layout instead of the left-hand layout when the left-hand layout is displayed, and when the right-hand layout is displayed from the beginning. No right-hand layout display is continued.
  • this corresponds to the detection of two points that are lowering to the left, which means that it is a right-hand operation by the passenger in the passenger seat.
  • step S54 is also for performing right hand layout display when step S54 is reached when left hand layout display is being performed, and in step S54 when the right hand layout is displayed from the beginning. The right hand layout is continued and the process proceeds to step S48.
  • step S48 as shown in FIG. 2 (A) or FIG. 3 (A), it is checked whether a touch on one of the menu and the decision area 34 or 54 has been detected.
  • step S56 the two points are updated and stored, and the area corresponding to the two points is displayed in a thick frame. If there is no change in the memory of the two detected points without change in the touch position, the same information is overwritten and updated, and the area displayed in a thick frame is not changed. Then, the process proceeds to step S58, the predetermined time count started in step S36 is reset, the time count is started again, and the process proceeds to step S60.
  • step S60 it is checked whether or not an approach drag to the menu of the determination area 34 or 54 as shown by the black arrow 40 in FIG. 2A or the black arrow 58 in FIG.
  • the process proceeds to step S62, the menu selection is confirmed, and the flow ends. If the passage of the predetermined time is detected in step S38, the flow is immediately terminated. On the other hand, when the approach drag is not detected in step S60, the process returns to step S38.
  • steps S38 to S60 are repeated. Corresponds to changes in driving and stopping situations and touch changes to menus. If a two-point simultaneous touch state is not detected in step S40, or if a two-point touch between one of the menus and the decision area 34 or 54 is not detected in step S54, the process returns to step S38.
  • step S60 the menu selection is confirmed when the approach drag is detected in step S60. Even if two points are touched accidentally, the menu selection is not confirmed immediately, and another one-step confirmation operation is performed.
  • FIG. 12 is a flowchart showing details of the destination input process in step S16 of FIG. 10.
  • a left-right reverse process is performed in step S72. This is the same as step S32 and step S34 in FIG.
  • the flow proceeds to step S74 and thereafter.
  • step S74 and subsequent steps processing for the case of a right-hand drive vehicle when left-right reverse reading is not performed in the left-right reverse processing is shown.
  • step S74 a right-hand layout is displayed and a predetermined time is started. Then, after displaying the right hand layout in step S76, it is checked whether or not a predetermined time has elapsed. If the predetermined time has not elapsed, it is checked in step S78 whether or not a one-point touch is detected. When a one-point touch state is detected, the process proceeds to step S80, and it is checked whether a predetermined identification time has elapsed. This identification time is based on the premise that two-point touches are not performed exactly at the same time, and is the first point touch when the one-point touch detected in step S78 is intended for two-point touch, or the intention It is for identifying whether it is a one-point touch.
  • step S80 If it is not detected in step S80 that the identification time has elapsed, the process proceeds to step S82 to check whether or not a two-point simultaneous touch state is detected. If this detection is not possible, the process returns to step S80, and thereafter, steps S80 and S82 are repeated unless the identification time elapses or a two-point simultaneous touch state is detected.
  • step S84 When the two-point simultaneous touch state is detected in step S82, the left / right layout switching process in step S84 is started. This process is the same process as step S42 to step S46 and step S50 to step S54 in FIG. 11, and is for switching the right hand layout and the left hand layout and prohibiting the left hand layout during traveling. Then, when the left and right layout switching process in step S84 is completed, the process proceeds to step S86.
  • step S86 as shown in FIG. 4, whether a touch on one of the consonant button group 64 or the blank button 68 and one of the vowel button group 66 (or 78) or the “n” button 70 (or 80) has been detected. If there is a detection, the two points are updated and stored in step S88 based on the detection information, and the area corresponding to the two points is displayed in a thick frame, and the process proceeds to step S90. Similar to the flow of FIG. 11, the same information is overwritten and updated, and the area displayed in a thick frame does not change if there is no change in the memory of the two detected points without change in the touch position.
  • step S90 an approach drag to the consonant button (or blank button) of the vowel button (or “N” button) as indicated by the black arrow 72 in FIG. 4A or the black arrow in FIG. 4B is performed.
  • step S92 the input of one character of kana characters is confirmed and stored, and the process proceeds to step S94.
  • step S96 the process proceeds to step S96 to check whether this is a touch on one of the numeric keypads 76 in FIG. .
  • step S98 the numeric input is confirmed, and the process proceeds to step S94.
  • the numeric input for one character is determined only by one point touch and the identification time.
  • step S94 the count is reset for a predetermined time, the count is started again, and the process proceeds to step S100. Since the reset start for the predetermined time here is meaningful for waiting for the next character input operation, it can be set to a time suitable for waiting for the character input different from the predetermined time started in step S74. If it is not detected in step S96 that the touch is on one of the numeric keypads 76, the touch is regarded as meaningless one-point touch, and no input is confirmed and the process immediately proceeds to step S100.
  • step S100 it is checked whether the destination can be estimated from the stored kana character string including the one character newly determined and stored in step S92. If the number of characters is small and cannot be estimated, the process returns to step S76 in order to allow further characters to be input. Further, when a one-point touch is not detected at step S78, or when a touch on one of the consonant button group and one of the vowel button group is not detected at step S86, or within a predetermined time at step S90. Even when the vowel button drag cannot be detected, the process returns to step S76.
  • step S76 to step S100 are repeated to enable new character input and travel. It responds to changes in the situation of stop and right hand / left hand layout.
  • step S100 when it is determined in step S100 that the destination can be estimated, the process proceeds to step S102, where the destination is estimated based on the input character string, and the flow ends.
  • step S102 the destination is estimated based on the input character string, and the flow ends.
  • the kana input is confirmed by detecting the approaching drag in step S90, as in the case of FIG.
  • step S90 is omitted as in the case of FIG. 11, and one of the consonant button group and one of the vowel button group and the like are omitted in step S86.
  • step S92 the process may immediately proceed to step S92 to confirm the kana input.
  • the process may immediately proceed to step S92 to confirm the kana input.
  • the menu selection is performed. Determine.
  • FIG. 13 is a flowchart showing the details of the map touch process in step S24 of FIG. 10.
  • the left and right reverse process is first performed in step S112. This is the same as step S32 and step S34 in FIG. 11 as in step S72 in FIG.
  • the flow proceeds to step S114 and the subsequent steps.
  • step S ⁇ b> 114 and subsequent steps processing for the case of a right-hand drive vehicle when left / right reverse reading is not performed in the left / right reverse processing is shown.
  • step S114 it is checked whether a two-point simultaneous touch state is detected within a predetermined time after the map touch is detected in step S22 of FIG.
  • the process proceeds to step 116, and it is checked whether the two detected points are lowered to the right. Then, if it is detected that the point is two points to the lower right, it is considered that the driver has performed a left hand operation, and the process proceeds to step S118 to check whether the vehicle is traveling. When it is detected that the vehicle is traveling, the process proceeds to step S120.
  • Steps S120 to S126 correspond to the operations shown in FIGS.
  • step S120 it is checked whether or not dragging is performed so that the two points relatively approach within a predetermined time after the two-point simultaneous touch state is detected in step S114. If an approach drag is detected, the process proceeds to step S122, the center of the displayed map is fixed, the map is reduced at a predetermined ratio, and the process proceeds to step S124. This corresponds to the operation of FIG. On the other hand, when the approach drag within the predetermined time cannot be detected in step S120, the process directly proceeds to step S124.
  • step S124 it is checked whether or not dragging is performed in which the two points are relatively separated within a predetermined time after the two-point simultaneous touch state is detected in step S114.
  • the process proceeds to step S126, the center of the displayed map is fixed, the map is enlarged at a predetermined ratio, and the flow is ended. This corresponds to the operation of FIG.
  • the separation drag within the predetermined time cannot be detected in step S124, the flow is immediately terminated. In this case, the map scale does not change.
  • the positions of steps S120 and S122 may be replaced with the positions of steps S124 and S126.
  • step S1208 it is checked whether or not a predetermined time has passed. If no progress has been detected, the process proceeds to step S132, and it is checked whether or not a drag that relatively separates the two detected points has been performed. If no separation drag is detected, the process returns to step S130, and thereafter, steps S130 and S132 are repeated to wait for a two-point separation drag within a predetermined time.
  • step S132 When the two-point drag is detected in step S132, the process proceeds to step S134, the map in the area determined and stored in step S128 is enlarged to the full display unit 12, and the flow ends. This corresponds to the state of operation in FIG. On the other hand, when the elapse of the predetermined time is detected in step S130, the flow is immediately terminated. In this case, the map is not enlarged.
  • step S114 when the two-point simultaneous touch state within a predetermined time after the map touch is detected in step S22 of FIG. 10, it means that the one-point touch is detected in step S22 of FIG. Therefore, the process proceeds to step S136.
  • step S136 it is checked whether or not there is a history in which the map in the area determined at the two-point touch position is enlarged immediately before the map touch is detected in step S22 of FIG. If there is such a history, the process proceeds to step S138, the map is reduced at a predetermined ratio around the touch position detected in step S22 of FIG. 10, and the flow is terminated. This corresponds to the operation of FIG. On the other hand, if no enlargement history is detected in step S136, the flow is immediately terminated. In this case, the map is not enlarged.
  • the switching between the right-hand layout and the left-hand layout is associated with detection of whether or not the vehicle is traveling, which allows the driver to perform a certain operation with relatively little danger even while traveling.
  • Passengers in the passenger seat can perform complicated operations and operations that require accuracy even while traveling, and can be operated more flexibly than when operations are uniformly restricted. It is useful in that.
  • whether the operation is performed by the driver or the passenger is determined based on whether two lower right points or two left lower points are detected. This is useful in that it does not require any other means for discriminating between passengers and passengers.
  • an infrared detector that distinguishes between the driver and passenger is provided separately.
  • the layout and the left-hand layout may be switched.
  • priority is given to simplifying the configuration and preventing accidents due to car navigation operations, it is configured to prohibit complex operations while driving regardless of whether the layout is for the right hand or the left hand. May be.
  • switching between the right hand layout and the left hand layout in accordance with the hand structure is useful for facilitating the two-point operation by hand.
  • the first embodiment shows implementation in a car navigation system
  • some of the various disclosed features are not limited to implementation in a car navigation system, and can be implemented in various devices as long as the disclosed advantages can be enjoyed.
  • it can be widely used in a touch panel display unit in a digital still camera and a digital movie camera, and a touch panel display unit in a mobile device such as a mobile phone.
  • some of various features such as switching between the two-point touch operation with the right hand and the two-point touch operation with the left hand disclosed above can also be used in a touch panel having no display function.
  • FIG. 14 is a block diagram showing Example 2 of the touch panel input device according to the embodiment of the present invention.
  • the second embodiment constitutes a digital camera 202, has a control unit 204 that is a computer that controls the entire apparatus, and controls the digital camera 202 in accordance with the operation of the operation unit 206 by the digital camera operator.
  • the function of the control unit 204 is executed by software stored in the storage unit 208.
  • the storage unit 208 also temporarily stores various data necessary for controlling the digital camera 202.
  • the control unit 204 controls the display of the resistive touch panel display unit 212 via the display driver 210, displays a GUI necessary for the operation of the operation unit 206 and displays a control result.
  • the resistive touch panel display unit 212 is a display unit and a touch panel input device, and is a GUI operation unit that performs an input operation by directly touching the display. Further, the configuration of the resistive touch panel display unit 212 is the same as that of the first embodiment shown in FIG. 1, and the control unit 204 analyzes the output of the four lines of the resistive touch panel display unit 212 to obtain two points. It is possible to detect the touch position and its movement.
  • the digital camera 202 converts an optical image formed by the focus-adjustable optical system 252 into an electronic image by the imaging unit 254, and performs image processing including compression by the image processing unit 256 of the control unit 204. And store it in the image storage unit 258.
  • the image storage unit 258 is configured as an image memory built in the digital camera 202 or a memory card that can be attached to and detached from the digital camera 202.
  • the image captured by the imaging unit 254 is displayed on the resistive touch panel display unit 212 by the display driver 210. That is, in such an imaging mode, the resistive touch panel display unit 212 functions as a finder screen for displaying a subject image for determining an imaging composition. At this time, by touching a desired portion of the subject image displayed on the resistive touch panel display unit 212 with, for example, a thumb, the touch position is stored, and the focus mechanism 260 automatically focuses the subject portion corresponding to the stored position. Is done.
  • the focus adjustment determination for autofocus is performed by the control unit 204 based on information from the image processing unit 256.
  • the exposure control unit 262 controls exposure by controlling the aperture of the optical system 252 and the exposure time and gain of the imaging unit 254 based on the subject portion corresponding to the stored touch position. Determination of exposure control is also performed by the control unit 204 based on information from the image processing unit 256.
  • the memory of the touch position is canceled and the next touched position is newly stored.
  • the touch position is inadvertently changed from a desired position by the finger being displaced on the resistive touch panel display unit 212 when the touch is continued. Can be prevented. Then, for example, when an arbitrary position on the resistive touch panel display unit 212 is touched with the index finger while the touch is continued, shutter release is performed, and photographing is completed.
  • the image stored in the image storage unit 258 in the photographing mode can be reproduced and displayed on the resistive touch panel display unit 212 by setting the reproduction mode.
  • Such a reproduced image can be enlarged or reduced, and the operation described in the first embodiment can be applied mutatis mutandis.
  • information of the GPS unit 214 is stored in the image storage unit 258 together with the image as shooting location information.
  • the speaker 221 is used for operation guidance of the digital camera 202.
  • the input / output unit 220 and the wireless communication unit 218 can be used when an image stored in the image storage unit 258 is transmitted to the outside of the digital camera 202.
  • FIG. 15 is a screen diagram showing a subject image displayed on the resistive touch panel display unit 212 in the photographing mode of the digital camera 202 shown in the second embodiment.
  • FIG. 15A shows a state where a desired position of the resistive touch panel display unit 212 is touched with the thumb of the right hand 264, and a touch position display 266 is performed in response to this touch.
  • the touch position display 266 indicates the touched position and indicates that the touch position is stored.
  • the touch position display 266 does not move even if the position of the thumb is shifted in such a one-point touch state with the thumb. Further, when the thumb is released from the resistive touch panel display unit 212, the touch position storage is canceled and the touch position display 266 disappears, so that the storage position can be set by a new touch.
  • composition determination before shooting the subject image displayed on the resistive touch panel display unit 212 moves when the digital camera 202 is shaken. At this time, if both the image and the stored touch position move together, the reference is lost and it becomes difficult to specify the desired position of the image. However, by temporarily storing the first touch position as described above, Even if the image moves, the touch position and the desired position of the original image can be easily matched to each other by moving the digital camera 202.
  • FIG. 15B shows a state in which an arbitrary position 268 of the resistive touch panel display unit 212 is touched while continuing to touch the thumb of the right hand 264, and the control unit 204 is in such a two-point touch state. If it is determined that the shutter release operation has been performed, the image information of the imaging unit 254 in that state is processed by the image processing unit 256 and stored in the image storage unit 258.
  • the shutter release button position is an arbitrary position on the resistive touch panel display unit 212, it is possible to concentrate on composition determination and simplify the operation.
  • the configuration in which the shutter release is performed by touching the second point is not limited to this.
  • the shutter button may be displayed at a position that is easy to operate, such as a position 268 in FIG.
  • Such shutter button position display is performed at the same time as the first touch position 266 is stored.
  • the shutter release cannot be performed by the second point touch at an arbitrary position, but on the other hand, the shutter release is erroneously performed by inadvertently touching other than the displayed shutter button position. Can be prevented.
  • the second embodiment may be configured such that such a shutter release button display mode can be selected by a custom setting of the user of the digital camera 202.
  • FIG. 16 is a flowchart of the operation of the control unit 204 in the second embodiment of FIG.
  • the flow starts.
  • step S142 the digital camera is started up.
  • step S144 the shooting mode is set as an initial state, and the process proceeds to step S146.
  • step S146 it is checked whether the reproduction mode setting manual operation has been performed. If there is no operation, the process proceeds to step S148.
  • step S148 it is checked whether a one-point touch is detected.
  • the process proceeds to step S150, and the position where the touch is detected is stored.
  • step S146 steps S146 and S148 are repeated to wait for a one-point touch detection unless a playback mode setting operation is performed.
  • step S152 the process proceeds to step S152 to display the stored position. This display corresponds to the touch position display 266 in FIG.
  • step S154 the control unit 204 instructs the focus mechanism 260 based on the information of the image processing unit 256 for the subject imaged at the storage position to drive the optical system 252, and the contrast of this part is maximized. Adjust the focus. As a result, the subject in the portion of the touch position display 266 in FIG. 15A is brought into focus.
  • step S156 after the focus instruction, the control unit 204 issues an instruction to the exposure control unit 262 based on the information of the image processing unit 256 with respect to the subject imaged at the storage position, and the exposure of the aperture of the optical system 252 and the exposure of the imaging unit 254. Control the time. As a result, exposure control is performed so that the subject in the portion of the touch position display 266 in FIG.
  • step S158 it is checked whether or not a predetermined time has elapsed since the one-point touch was detected in step S148.
  • the predetermined time is, for example, about 2 seconds, and is set as a time for waiting for a shutter release by the second point touch detection after the subject portion of interest is determined by the first point touch. As will be described later, when the second point touch is not detected within the predetermined time, the storage of the first point touch is cancelled.
  • step S160 the process proceeds to step S160 to check whether the one-point touch is released. If the one-point touch release is not detected, the process proceeds to step S162 to check whether the two-point simultaneous touch state has occurred as a result of continuing the first point touch and touching the second point. When the two-point simultaneous touch state is detected, the process proceeds to step S164, shutter release is performed, and the process proceeds to the imaging process in step S166. On the other hand, if the two-point simultaneous touch state is not detected in step S162, the process returns to step S158, and then the second point touch is repeated by repeating steps S158 to S162 unless a predetermined time elapses or the one-point touch is released. Wait for.
  • the imaging process in step S166 is a process of performing image compression by the image processing unit 256 and storing the compressed image in the image storage unit 258.
  • an image to be stored in parallel is displayed as a still image on the resistive touch panel display unit 212 for a predetermined time.
  • the process proceeds to step S168, and it is checked whether or not the digital camera 202 is turned off. When the power-off operation is detected, the flow ends.
  • step S158 when the elapse of the predetermined time is detected in step S158, or when one-point touch release is detected in step S160, the process proceeds to step S170, and the memory of the one-point touch is canceled, and in FIG.
  • the touch position display 266 as shown in FIG.
  • step S146 when a reproduction mode setting operation is detected in step S146, the process proceeds to step S174, and reproduction mode processing is performed.
  • the playback mode processing full-screen playback by sending images in a predetermined order starting from the latest image, image selection by thumbnail images, slide show display, and the like are possible.
  • the process periodically proceeds to step S176 to check whether or not there is a shooting mode setting operation. If there is no operation, the process returns to step S174 to continue the playback mode. If a shooting mode setting operation is detected in step S176, the shooting mode is set in step S178, and the process proceeds to step S168.
  • step S168 the flow ends when the power-off operation is detected in step S168, but if the power-off operation is not detected, the process returns to step S146. Thereafter, unless a power-off operation is detected in step S168, steps S146 to S168 are repeated, basically corresponding to various operations in the shooting mode, as well as operations for switching to the playback mode and returning to the shooting mode as appropriate. To do.
  • the screen position designation function responds by the first point touch
  • the shutter release function responds by the second point touch.
  • this feature of the present invention is not limited to the use of the screen position designation function and the shutter release function, and the first point touch and the second point touch detection can be assigned to various different functions.
  • the digital camera 202 is shaken after the first point touch position is stored, the image displayed at the stored touch position portion on the screen is also moved. Accordingly, the subject portion that is subject to focus adjustment and exposure adjustment also changes. Therefore, by adjusting the desired subject to the touch position display 266 of FIG. 15A by shaking the digital camera 202, focus adjustment and exposure adjustment can be performed on the subject portion.
  • the focus lock and the exposure adjustment lock mode are also possible in the second embodiment. When such a lock mode is selected, the touch position storage time and the touch position display 266 are displayed together with the touch position storage time point. Image data of the subject part of the image pickup unit 254 is also stored, and focus adjustment and exposure adjustment are performed based on the stored image data. Therefore, in such a lock mode, even if the digital camera 202 is shaken after the first point touch, it is possible to maintain the focus adjustment and exposure adjustment states for the subject portion that was at the touch position at the time of the first point touch.
  • step S152 A step for checking whether or not the lock mode is set is inserted between step S152 and step S154.
  • the process proceeds to step S154 through the step of storing the partial image data. Therefore, in this case, step S154 and step S156 are performed based on the subject part data stored as described above, not the subject part data corresponding to the stored touch position acquired from the imaging unit 254 in real time. Become.
  • step S170 in the lock mode the storage of the subject image data is canceled after step S172, and the process proceeds to step S168.
  • Example 3 of the touch panel input device relates to a car navigation system for a vehicle, and most of the configuration is the same as that of the first embodiment. Therefore, FIG. 1 to FIG. 13 are basically diverted, the same numbers are used for the same parts, and only different points are described.
  • the line connecting the two points in the same manner as in the first embodiment, when an operation by the driving driver is performed, the line connecting the two points is relatively lower right regardless of where the absolute positions of the two touched points are. It is configured to detect a certain thing and to perform a map enlargement operation with a simple touch position movement without danger.
  • enlargement or reduction is determined depending on whether the distance between two points is separated or approached as shown in FIGS. 8 and 9, whereas in the third embodiment, enlargement / reduction is performed by another operation method. Configured to do.
  • the third embodiment is common with the first embodiment, and thus the description thereof is omitted.
  • FIG. 17 shows an example of the above-described third embodiment in which the driver is operating without danger from the left-hand operation detection state shown in FIG. 5A regardless of where the absolute positions of the two points are. It is a screen figure at the time of enlarging a map. However, in FIG. 17, it is assumed that a two-point touch is performed with the thumb and the middle finger in order to widen the interval between touch positions. Needless to say, the position of the touch is a problem in detection, and any finger can be operated as long as a natural touch can be made. In FIG.
  • the left and right thumbs 302 and 306 are touched at the touch positions 304 and 306, respectively, and as shown by white arrows 308 and 310, the distance between the fingers is basically unchanged and moved in parallel.
  • the state in which the left hand 302 is separated from the display unit 12 is shown.
  • the control unit 4 determines whether the interval 312 between the two touched points is larger than the reference interval 314.
  • FIG. 17B an enlarged map 114 enlarged according to the magnification determined in this way is displayed.
  • a wide two-point touch and parallel slide as shown in FIG. 17 are repeated.
  • the map can be reduced by an operation described below.
  • FIG. 18 shows a map reduction according to the third embodiment from the left-hand operation detection state as shown in FIG. 5 (A) by a dangerous operation by the driving driver regardless of where the absolute positions of the two points are. It is a screen figure at the time of performing.
  • FIG. 18 it is assumed that a two-point touch is performed with a thumb and an index finger with a narrow interval.
  • the left hand 302 and the forefinger are touched at the touch positions 316 and 318, respectively, and from there, as indicated by white arrows 320 and 322, the finger spacing is basically unchanged without changing. It shows a state in which the left hand 302 is moved away from the display unit 12 after that.
  • the control unit 4 determines whether or not the interval 324 between the two touched points is larger than the reference interval 314 similar to FIG.
  • FIG. 18B a reduced map 124 reduced in accordance with the reduction rate determined in this way is displayed.
  • narrow two-point touch and parallel slide as shown in FIG. 18 are repeated. If the image is reduced too much, the map can be enlarged by the wide two-point touch and the parallel slide shown in FIG.
  • the reference interval 314 in FIG. 17A or FIG. 18A in Embodiment 3 is wide or narrow based on the finger interval that is easy to operate by the operator when performing two-point touches of wide and narrow.
  • the range in which such identification can be appropriately performed can be set in advance by trial and error.
  • the width between touch positions can be used as input information in a two-point touch.
  • a touch position change in which the two-point touch state is continued can be used as input information.
  • FIG. 19 is a flowchart showing details of the map touch processing in step S24 of FIG. 10 in the case of the third embodiment. Most of them are the same as those in FIG. 13 relating to the first embodiment, and therefore common steps are given common step numbers, and description thereof is omitted unless necessary. Specifically, step S112 to step S118, step S136, and step S138 in FIG. 19 are the same as those in FIG. As described above, the third embodiment relates to the left-hand operation performed by the driver who is driving, and therefore the processing after the fact that the vehicle is traveling in step S118 in FIG. 19 is different from that in FIG. This process is related to the operations shown in FIGS.
  • step S118 when it is detected that the vehicle is traveling in step S118, the process proceeds to step S182, and the two points are touched within a predetermined time after the two-point simultaneous touch state is detected in step S114. Check if it was slid parallel. When a parallel slide is detected, the process proceeds to step S184, and the slide amount corresponding to the white arrows 308 and 310 in FIG. 17A or the white arrows 320 and 322 in FIG. Further, in step S186, the slide speed at the white arrows 308 and 310 or the white arrows 320 and 322 is determined.
  • step S188 the map enlargement ratio or reduction ratio is determined based on the product value obtained by multiplying the slide amount determined in step S184 and the slide speed determined in step S186. That is, the enlargement rate or reduction rate determined in step S188 is doubled when the slide amount is the same and the slide speed is double, or when the slide amount is double and the slide speed is the same, for example. For example, when the slide amount and the slide speed are both doubled, the enlargement ratio or reduction ratio determined in step S188 is four times. As described above, the slide amount and the slide speed are both information on the slide state, and in step S188, the degree of enlargement or reduction determined as the sensuous and polite slide is performed is small, and fine adjustment is performed. The larger the sensory slide, the greater the expansion or reduction.
  • step S188 When the enlargement ratio or reduction ratio is determined in step S188, the process proceeds to step S190, and it is checked whether the distance between the two touched points is equal to or greater than a predetermined reference.
  • This predetermined reference corresponds to the reference interval 214 in FIG. 17 (A) or FIG. 18 (A).
  • step S192 the center is fixed, and the map is enlarged based on the enlargement ratio determined in step S188, and the flow is finished. .
  • step S190 determines whether the distance between the two points is equal to or smaller than the predetermined value. If it is confirmed in step S190 that the distance between the two points is equal to or smaller than the predetermined value, the process proceeds to step S194, where the center is fixed and the map is reduced based on the reduction rate determined in step S188, and the flow is ended. .
  • Step S196 in FIG. 19 illustrates step S128 to step S134 in FIG. 13 as a two-point determination area map enlargement process, and the contents thereof are the same as those in FIG. That is, step S196 in FIG. 19 is executed in the same manner as in FIG. 13 when a left-down two-point touch is detected in step S116 (in other words, a right-down two-point touch has not been detected).
  • the map in the area determined by the two touched points based on the absolute positions of the two touched points is enlarged to the display unit 12 and the flow ends.
  • step S182 to S188 are omitted in the flow of FIG. 19, and after detecting that the vehicle is traveling in step S118, the determination of the distance between the two points in step S190 is started immediately.
  • FIG. 20 is a block diagram showing Example 4 of the touch panel input device according to the embodiment of the present invention.
  • the fourth embodiment constitutes the digital camera 402, but most of the contents are the same as those of the digital camera 202 in the second embodiment of FIG. Accordingly, common portions are denoted by common numbers and description thereof is omitted.
  • parts that can be understood according to the second embodiment are given numbers in the 400s in common with the 10's and 1's, and explanations are added as necessary. Note that these additional explanation portions are not particularly specific to the fourth embodiment, and the second embodiment may be arbitrarily configured to have such a configuration.
  • the resistive touch panel display unit 212 of the fourth embodiment of FIG. 20 is a large-sized one provided over almost the entire back surface of the digital camera 402, and the optical system.
  • the hand 452 is held with both hands and pointed at the subject, the subject image can be observed from the back of the digital camera 402, and the resistive touch panel display unit 212 can be naturally displayed with the thumbs of both hands holding the digital camera 402. It can be touched.
  • the optical system 452 is a zoom lens system
  • the zoom mechanism 470 drives the lens configuration of the optical system 452 under the control of the control unit 404 to change the focal length thereof.
  • Zoom. Zooming is operated by touching the resistive touch panel display unit 212. In response to this operation, zooming is performed using not only the optical zoom by the optical system 452 as described above but also the electronic zoom by the image processing unit 256. .
  • the zoom operation can be naturally performed with the thumbs of both hands on the resistive touch panel display unit 212 while observing the subject while holding the digital camera 402 with both hands.
  • the acceleration sensor 472 can detect a change in posture of the digital camera 402 and can detect gravitational acceleration even in a stationary state, and a zooming operation on the resistive touch panel display unit 212 causes the digital camera 402 to move vertically. It is detected whether it was done by holding it or holding it sideways.
  • the zoom operation by the resistive touch panel display unit 212 will be described in detail below.
  • FIG. 21 is a screen diagram illustrating a subject image displayed on the resistive touch panel display unit 212 in a state where the digital camera 402 according to the fourth embodiment is held sideways with both hands, and when the subject image is enlarged by zooming up.
  • the state of is shown. More specifically, FIG. 21A shows an area 478 to be enlarged by touching the resistive touch panel display unit 212 with the thumb 474 of the right hand and the thumb 476 of the left hand when the digital camera 402 is held with both hands.
  • a state in which the horizontal distance between two touched points is increased by designating the left and right sides and then sliding both thumbs 474 and 476 outward as indicated by arrows 480 and 482 while continuing the touch is shown.
  • both thumbs 474 and 476 are slid apart from the resistive touch panel display unit 212 while touching the back surface of the digital camera 402, both thumbs 474 and 476 are separated from the resistive touch panel display unit 212. It is recognized as a thing.
  • the slide operation for increasing the horizontal distance between the two points after the two-point simultaneous touch with the thumbs 474 and 476 of FIG. 21A may be performed at an arbitrary speed. That is, the enlargement ratio from FIG. 21 (A) to FIG. 21 (B) depends exclusively on the size of the enlargement range 478 in FIG. 21 (A), and enlarges regardless of the sliding speed of both thumbs 474 and 476. Zoom-in is performed at the highest processing speed until the range 478 is expanded to the full screen of the resistive touch panel display unit 212. At this time, if the optical zoom cannot cope, an electronic zoom is also mobilized. However, if the enlargement range 478 is too small and exceeds the zoom capability range for full-screen enlargement, zoom-up is stopped when the maximum possible enlargement is performed.
  • the designation of the enlargement range 478 in FIG. 21A is only a guide for the enlargement ratio, and the enlargement range 478 as an absolute position designated by the right thumb 474 and the left thumb 476 (hereinafter referred to as “partition” as appropriate). 478) itself is not enlarged as shown in FIG. That is, the enlargement is performed concentrically based on the horizontal distance between the left and right sides regardless of the absolute position of the section 478. This is because the optical zoom is performed concentrically about the center of the screen due to its nature.
  • the section designation information in the zoom operation of the present invention has a different meaning from the cutout information of a part of the image. In the electronic zoom, it is possible to cut and enlarge the portion based on the absolute position of the designated section 478.
  • the electronic zoom is used. Also in zooming, the designation information of the section 478 is handled as relative information for calculating the enlargement magnification, not absolute information for cutting out the screen. Therefore, the enlargement of the electronic zoom is also performed concentrically according to the calculated enlargement ratio regardless of the absolute position of the section 478.
  • FIG. 22 is a screen view showing a subject image displayed on the resistive touch panel display unit 212 in a state where the digital camera 402 according to the fourth embodiment is held sideways with both hands as in FIG. Shows a state when the subject image is reduced. More specifically, FIG. 22A shows an arrow in which the resistive touch panel display unit 212 is touched with the thumb 474 of the right hand and the thumb 476 of the left hand when the digital camera is held with both hands and the touch is continued thereafter. As shown by 486 and an arrow 488, the horizontal distance between two touched points is reduced by sliding the thumbs 474 and 476 in both hands inward.
  • the reduction magnification is doubled and when both are doubled, the reduction magnification is 4 times.
  • the enlargement target range is designated on the screen by the initial finger touch position as shown in FIG.
  • the specification is made according to the degree of intensity of finger movement.
  • both the enlargement and reduction may be configured to specify the rate according to the initial finger touch position, or both the enlargement and reduction may be performed according to the degree of intensity of finger movement.
  • the user can perform desired zoom by intuitively moving the thumbs of both hands apart or approaching after touching. If the zoom is insufficient or excessive, it can be corrected by performing the reverse operation, and it becomes possible to grasp an appropriate finger movement by learning such an operation.
  • FIG. 23 is a screen diagram showing a subject image displayed on the resistive touch panel display unit 212 in a state where the digital camera 402 of Example 4 is held vertically with both hands. In this case as well, zooming up and zooming down according to the increase or decrease in the horizontal distance between two touch points on the resistive touch panel display 212 due to the horizontal movement of the right thumb 474 and left thumb 476 indicated by arrows 492 and 494, respectively. Is possible. At this time, it is determined that the direction parallel to the short side of the resistive touch panel display unit 212 is the horizontal direction by gravity acceleration detection by the acceleration sensor 472 of FIG.
  • the longitudinal and lateral direction detection by the acceleration sensor 472 causes a change in the distance between two points parallel to the long side of the resistive touch panel display unit 212 in FIGS. 21 and 22, and in FIG. 23 the resistive touch panel display unit. Changes in the distance between two points parallel to the short side of 212 are respectively detected as zoom operations.
  • the details of zoom-up and zoom-down in the vertical position holding state in FIG. 23 are the same as the operations in the horizontal position holding state in FIGS.
  • FIG. 24 is a flowchart of the operation of the control unit 404 in the fourth embodiment of FIG.
  • the flow chart of FIG. 24 has many parts that are the same as the operation of the control unit 204 of the digital camera 202 of the second embodiment in FIG. Specify steps in bold.
  • step S148 when a one-point touch is detected in step S148, the process proceeds to step S202.
  • the second point is touched within a predetermined time and two points are touched simultaneously.
  • This predetermined time is set to an extremely short time (for example, 0.5 seconds), and even if there is a slight deviation in what the operator intends to touch at two points simultaneously, it falls within this predetermined time.
  • the purpose of the installation in step S202 is to discriminate between what the operator intends to touch the second point after the first point touch and what is intended to simultaneously touch the two points.
  • step S202 When a substantial two-point simultaneous touch is detected in step S202, the process proceeds to zoom processing in step S204, and when this is completed, the process returns to step S146.
  • the above steps S202 and S204 correspond to the zoom function by simultaneous touching with both thumbs 474 and 476 described in FIGS. 21 to 23, and details of step S204 will be described later.
  • step S206 it is checked whether or not the first touch position detected in step S148 is unchanged for a predetermined time.
  • the predetermined time in step S206 is, for example, 1 second, and is set as a natural time width in which the operator stops the finger at the touch position with the intention of specifying the focus and exposure adjustment position.
  • step S208 When it is confirmed in step S206 that the first touch position is unchanged for a predetermined time, the process proceeds to the focus and exposure adjustment process in step S208.
  • the contents of step S208 are the same as steps S150 to S156 of FIG.
  • step S208 if a shift of the first point touch position occurs within a predetermined time in step S206, it is determined that the position designation is erroneous, and the process returns to step S146 to wait for the first point retouch in step S148. That is, in the second embodiment of FIG. 16, the focus and exposure adjustment are started immediately after the one-point touch detection in step S148. In the fourth embodiment of FIG. 24, there is no discrimination from the zoom operation and no erroneous operation. After confirming the above, the focus and exposure adjustment for the one-point touch detection position is entered.
  • FIG. 25 is a flowchart showing details of the zoom process in step S204 of FIG.
  • the horizontal direction is detected by the acceleration sensor 472 in step S212, and the horizontal distance between the two touched points based on the detection result, that is, the short side direction of the resistive touch panel display unit 212 is detected.
  • the distance between two points in the direction component parallel to one of the long side directions is calculated. Thereby, even if the two touched points are shifted in the vertical direction, only the horizontal component is calculated as the horizontal distance between the two points.
  • the value calculated in step S214 is stored as the horizontal distance between the two points at the start of touching, and the time is stored.
  • step S218 the elapse of a predetermined time (for example, 1 second) is checked. If not, the process proceeds to step S220, and it is checked whether or not the distance between the two points has changed as a result of the finger slide.
  • a predetermined time for example, 1 second
  • step S220 the horizontal distance between the two points after the change and the time are stored, and the process proceeds to step S224.
  • step S224 it is checked whether or not the two-point touch is released. If there is no release, the process returns to step S218. Note that if the horizontal distance between the two points does not change in step S220, the process returns to step S218. Thereafter, unless the two-point touch is released until the predetermined time elapses, steps S218 to S224 are repeated, and each time the horizontal distance between the two points changes, the distance and time are updated and stored in step S222.
  • a predetermined time for example, 1 second
  • step S224 when the release of the two-point touch is detected in step S224, the process proceeds to step S226, and the two-point horizontal distance and time at the time of the touch release are determined based on the latest information of the storage update result in step S222.
  • step S2208 it is checked whether the horizontal distance between the two points has increased from a comparison of the horizontal distance between the two points at the touch start time and the touch end time.
  • the enlargement zoom process of step S230 is performed, and the process proceeds to step S232, where all the memories related to the horizontal distance between the two points are erased, and the flow ends. Details of the enlargement zoom processing will be described later.
  • step S218 If it is confirmed in step S218 that the horizontal distance between the two points has not changed or the predetermined time has passed without the two-point touch being released even if there is a change, the process directly proceeds to step S232 and the zoom operation is performed. The memory is erased without performing and the flow is ended.
  • FIG. 26 is a flowchart showing details of the enlargement zoom process in step S230 of FIG.
  • the flow starts, first, in step S242, the two-point horizontal distance at the touch start time is divided by the horizontal distance between the left and right sides of the resistive touch panel display unit 212 to obtain an enlargement magnification.
  • the two-point horizontal distance at the touch start time is stored in step S216 in FIG. 25 and corresponds to the horizontal distance between the left and right sides of the desired enlargement range 478 in FIG.
  • step S244 it is checked whether the digital camera 402 is currently in the electronic zoom area.
  • being in the electronic zoom region means that the optical image is zoomed up to the telephoto end (the telephoto side zoom end) by optical zooming, and the image is further enlarged by image processing. If it is not the electronic zoom region, zooming to the tele side by optical zoom is possible, so the process proceeds to step S246, and it is checked whether the enlargement magnification calculated in step S242 has been reached.
  • step S248 the zoom mechanism 470 is driven at a predetermined speed (the highest possible speed due to the mechanical structure) to zoom in by a predetermined amount (the smallest possible unit). I do.
  • step S250 it is checked whether or not the optical zoom has reached the tele end. If it is not the tele end, the process returns to step S246 and the steps from step S246 to step S250 are repeated until the enlargement magnification is reached or the optical zoom reaches the tele end.
  • step S246 When it is confirmed in step S246 that the magnification has been reached, the desired zoom-up has been achieved, and the flow is immediately terminated. On the other hand, if it is confirmed in step S250 that the optical zoom has reached the telephoto end, the magnification cannot be achieved with only the optical zoom, and the process proceeds to step S252.
  • step S252 it is checked whether the enlargement magnification obtained by subtracting the zoom-up deceleration correction amount has been achieved.
  • the deceleration correction is for eliminating the uncomfortable feeling between the optical zoom and the electronic zoom, and imitates the mechanical drive stop by the optical zoom by reducing the zoom speed near the end of the electronic zoom.
  • the deceleration correction amount means a change in magnification for the deceleration correction in the electronic zoom.
  • step S252 if it is not confirmed that the enlargement magnification obtained by subtracting the zoom-up deceleration correction amount is confirmed, the process proceeds to step S254, and zoom zoom-in is performed at a predetermined enlargement speed and enlargement amount simulating the maximum speed of the optical zoom. The enlargement in this case is performed concentrically with the image center as a reference.
  • step S256 it is checked whether or not the electronic zoom has reached the enlargement limit (tele end) by subtracting the zoom-up deceleration correction amount. If it is not the tele end, the process returns to step S252 and the electronic zoom subtracts the deceleration correction amount.
  • Steps S252 to S256 are repeated until the enlargement magnification is reached or the telephoto end is reached.
  • the flow proceeds to step S258, the remaining enlargement processing is performed by the enlargement electronic zoom deceleration stop processing, the enlargement magnification is achieved, and the flow ends. To do.
  • the process proceeds to step S258, and the enlargement magnification is performed by performing the remaining enlargement process by the enlargement electronic zoom deceleration stop process. To complete the flow.
  • step S244 If it is detected in step S244 that it is currently in the electronic zoom area, the process proceeds to step S260, where it is checked whether the electronic zoom is already at the tele end. If it is not the tele end, the process proceeds to step S252, and thereafter, the same processing as that in step S252 is performed via the optical zoom. On the other hand, if it is confirmed in step S260 that the electronic zoom has reached the tele end, the flow is immediately terminated.
  • FIG. 27 is a flowchart showing details of the reduction zoom process in step S234 of FIG.
  • the flow starts, first, the amount of change in the horizontal distance between the two points is calculated in step S262, and the rate of change in the horizontal distance between the two points is calculated in step S264. These are based on the stored values in step S216 and step S222 of FIG.
  • the reduction ratio is obtained based on the product of the change amount and the change speed of the horizontal distance between the two points.
  • step S268 it is checked whether the digital camera 402 is currently in the electronic zoom area.
  • the process proceeds to step S270, and it is checked whether or not the reduction magnification calculated in step S266 is achievable by the electronic zoom. This means that the image information captured because the reduction magnification is too large is not sufficient, and it is checked whether the reduction magnification cannot be achieved unless image information of a wider angle is obtained by optical zoom.
  • step S270 If it is confirmed in step S270 that the reduction ratio is not achievable with only the electronic zoom, the process proceeds to step S272, and zoom-down image processing is performed at a predetermined reduction speed and reduction amount simulating the maximum speed of the optical zoom.
  • concentric reduction processing is performed based on the center of the image.
  • step S274 it is checked whether or not the electronic zoom is at the wide end, which is the limit of the imaging information. If it is not the wide end, the process returns to step S272, and steps S272 and S274 are repeated until the electronic zoom reaches the wide end to execute the electronic zoom. When the electronic zoom reaches the wide end, the process immediately proceeds to step S276.
  • the electronic zoom decelerating process is not performed, and the process immediately proceeds to zoom-down by optical zoom in step S276 and the subsequent steps.
  • step S276 it is checked whether or not the reduction ratio calculated in step S266 has been reached.
  • the process proceeds to step S278, and the zoom mechanism 470 is driven at a predetermined speed (the highest possible speed due to the structure of the mechanism) in the same manner as in the case of zooming up. Perform a predetermined amount (the smallest possible unit) of zoom-down.
  • step S280 it is checked whether or not the optical zoom has reached the wide end. If it is not the wide end, the process returns to step S276 to repeat the steps S276 to S280 until the reduction magnification is reached or the optical zoom reaches the wide end.
  • step S276 When it is confirmed in step S276 that the enlargement magnification has been reached, the desired zoom-down has been achieved, and the flow is immediately terminated. On the other hand, if it is confirmed in step S280 that the optical zoom has reached the wide end, further zoom-down is impossible, and the flow ends. If it is confirmed in step S268 that the current region is not the electronic zoom region, the process immediately proceeds to step S276, and the zoom-down by the optical zoom similar to that described in the case of via the electronic zoom in step S274 is executed.
  • step S270 when it is confirmed in step S270 that the reduction ratio calculated in step S266 is achievable by electronic zoom, the process proceeds to step S282, and the maximum speed of the optical zoom is simulated in the same manner as in step S272.
  • the zoom-down image processing is performed at the predetermined reduction speed and reduction amount.
  • the reduction process in this case is also a concentric reduction process based on the image center.
  • step S284 it is checked whether or not the reduction ratio obtained by subtracting the zoom-down deceleration correction amount has been achieved.
  • the zoom-down deceleration correction amount is for eliminating the uncomfortable feeling between the optical zoom and the electronic zoom as in the case of the zoom-up.
  • the zoom speed is reduced near the end of the electronic zoom, and step S276 or This is to imitate the mechanical drive stop by the optical zoom when the flow is ended from step S280.
  • step S284 When it is not confirmed in step S284 that the reduction ratio obtained by subtracting the zoom-down deceleration correction amount is reached, the process returns to step S282. repeat.
  • step S284 When it is confirmed in step S284 that the reduction magnification obtained by subtracting the deceleration correction amount is reached, the flow proceeds to step S286, the remaining reduction processing is performed by the reduction electronic zoom deceleration stop processing, and the reduction enlargement magnification is achieved. finish.
  • the deceleration stop process simulating the optical zoom is performed, and when the reduction process is succeeded to the optical zoom, the deceleration stop process is performed as described above. Without moving to optical zoom.
  • Example 5 of the touch panel input device relates to a digital camera, and is configured to be capable of moving image shooting in addition to still image shooting. Since the basic configuration is the same as that of the fourth embodiment, FIG. As for the zooming operation, as shown in FIGS. 21 and 22, zooming up and down is performed by separating and approaching the thumbs of both hands holding the digital camera 402. However, in the case of moving image shooting, a zooming operation is performed during shooting, not before shooting, and an operation in the middle of zooming including not only the zooming arrival point but also the zoom speed is important.
  • FIG. 28 is a flowchart for explaining the function of the control unit 404 when the configuration of FIG. 20 is used focusing on such a moving image shooting mode.
  • step S292 when the power-on operation is performed, the flow of FIG. 28 starts.
  • step S294 the digital camera 402 is started up, and in step S294, a still image is captured as an initial state.
  • the mode is set and the process proceeds to step S296.
  • step S296 it is checked whether or not a manual operation in the moving image shooting mode has been performed. If an operation is detected, the process proceeds to step S298.
  • step S298 it is checked whether a one-point touch is detected within a predetermined time after the moving image shooting mode is set.
  • the predetermined time is set to a relatively long time of about 10 seconds, for example. If the passage of this time is detected in step S298 (in other words, one point touch within the predetermined time is not detected), the moving image shooting mode is set. Is temporarily terminated and the process returns to step S296.
  • the process proceeds to step S298 and waits for detection of a one-point touch.
  • step S300 the process proceeds to step S300, and subject information at the position where the touch is detected is stored.
  • the significance of the one-point touch in the moving image shooting mode is to store the main subject tracking information, and the color, pattern, and feature point of the one-point touch portion on the subject displayed on the resistive touch panel display unit 212 are recorded.
  • the arrangement and the like are stored as main subject specifying information in step S300.
  • step S302 processing for preparing tracking focus and tracking exposure adjustment for the main subject during moving image shooting is performed based on the information stored in step S300, and the process proceeds to step S304.
  • the execution of the tracking focus and the tracking exposure adjustment prepared in step S302 is subsequently continued from the start to the stop of recording.
  • step S304 it is checked whether a predetermined time has elapsed since the one-point touch was detected in step S298.
  • the predetermined time is, for example, about 2 seconds, and is set as a time for waiting for the start of moving image shooting by the second point touch detection after the main subject to be tracked is determined by the first point touch.
  • the storage of the tracking information based on the first point touch is cancelled.
  • step S304 the process proceeds to step S306 to check whether the one-point touch is released. If the one-point touch release is not detected, the process proceeds to step S308 to check whether the two-point simultaneous touch state has occurred as a result of continuing the first point touch and touching the second point. When a two-point simultaneous touch state is detected, the process proceeds to step S310 to start recording. As a result, the image processing unit 256 performs the moving image compression and starts the process of storing the compressed image in the image storage unit 258, and continues until the recording stop instruction.
  • step S308 if the two-point simultaneous touch state is not detected in step S308, the process returns to step S304, and then the second point touch is repeated by repeating steps S304 to S308 unless a predetermined time elapses or the one-point touch is released. Wait for.
  • step S312 When recording is started in step S310, in parallel with this, in step S312, it is checked whether or not two-point simultaneous touch and slide within a predetermined time have occurred.
  • the predetermined time here is the same as that in step S202 of FIG. 24, and is for detecting an intentional two-point touch operation for zooming with both thumbs.
  • the moving image shooting zoom process of step S314 is performed. Details thereof will be described later.
  • step S316 it is detected in step S316 whether one point of double touch has been performed. This is detection that the touches are continuously performed at a predetermined interval so that the two-point simultaneous touch state does not occur, and the position of the double touch may be anywhere and may not be a touch at the same place.
  • step S3108 the recording is stopped and the process proceeds to step S320. If no one-point double touch is detected in step S316, the process returns to step S312 to continue moving image shooting while enabling a zooming operation.
  • step S304 when the elapse of the predetermined time is detected in step S304, or when one-point touch release is detected in step S306, the process proceeds to step S322, the tracking preparation process in step S302 is canceled, and the process proceeds to step S320. If the moving image shooting mode setting is not detected in step S296, the process immediately proceeds to the still image shooting mode and playback mode processing in step S324.
  • This step S324 is the same processing as step S146 to step S148, step S202 to step S208, step S158 to step S166, and step S170 to step S178 of the fourth embodiment in FIG.
  • step S320 in FIG. 28 is the same as step S168 in FIG. 24, and it is checked whether the power-off operation of the digital camera 402 has been performed. When the power-off operation is detected, the flow ends. On the other hand, if no power-off operation is detected in step S320, the process returns to the still image shooting mode and returns to step S296.
  • steps S296 to S320 are repeated to correspond to the operation of starting and stopping shooting and zooming when the moving image shooting mode is set based on the operation of the still image shooting mode. In addition, it corresponds to an operation for shifting to the reproduction mode and an operation for returning to the still image shooting mode.
  • FIG. 29 is a flowchart showing details of the moving image shooting zoom process in step S314 of FIG.
  • step S332 it is checked whether the horizontal distance between the two points has increased by a predetermined amount.
  • This predetermined amount is the smallest unit that can be detected and controlled.
  • step S334 to check whether the optical zoom is at the tele end. If it is not the tele end, the process proceeds to step S336, the optical zoom is performed to zoom in by a predetermined amount corresponding to the detection in step S332, and the process proceeds to step S338.
  • step S332 the optical zoom is performed to zoom in by a predetermined amount corresponding to the detection in step S332, and the process proceeds to step S338.
  • step S338 the process proceeds directly to step S338.
  • step S3308 it is checked whether the horizontal distance between the two points has decreased by a predetermined amount.
  • This predetermined amount is also the smallest unit that can be detected and controlled.
  • the process proceeds to step S340, and it is checked whether the optical zoom is at the wide end. If it is not the wide end, the process proceeds to step S342, the optical zoom is performed to zoom down by a predetermined amount corresponding to the detection in step S338, and the process proceeds to step S344.
  • step S344 On the other hand, if a decrease in the predetermined amount of the horizontal distance between the two points is not detected in step S338, or if it is detected in step S340 that the optical zoom is at the wide end, the process directly proceeds to step S344.
  • step S344 it is checked whether the two-point simultaneous touch state has been released. When the two-point simultaneous touch release is detected, the flow ends. On the other hand, if the simultaneous two-point touch release is not detected in step S344, the process proceeds to step S346, and it is checked whether or not the state in which the distance between the two points is unchanged for a predetermined time continues. When the unchanged state is detected, the flow ends. On the other hand, if no change is detected in step S346, the zoom operation is continued, so the process returns to step S332, and the following steps are performed unless the simultaneous two-point touch release or the two-point distance change for a predetermined time or more is detected.
  • Steps S ⁇ b> 332 to S ⁇ b> 346 are repeated to correspond to a zoom operation during moving image shooting.
  • the zoom operation can arbitrarily be up and down.
  • the zoom speed can be arbitrarily changed by the movement of the thumbs of both hands that determines the horizontal distance between the two points.
  • FIG. 30 is a screen diagram showing a playback image displayed on the resistive touch panel display unit 212 in the playback mode of the digital camera 202 of the second embodiment shown in FIG. 14 or the digital camera 402 of the fourth embodiment shown in FIG. is there.
  • FIG. 30A shows an operation of cutting and storing a reproduction image 502 in a rectangular shape for editing when the reproduced image 502 is displayed on a full screen.
  • the touch position 506 of the thumb of the right hand 504 and the touch position 508 of the index finger are shown.
  • a rectangular area 510 having a diagonal line connecting the two points is recognized. This recognition is performed after confirming that the two-point touch position does not change for a predetermined time (for example, 2 seconds) in order to avoid an erroneous operation.
  • a predetermined time for example, 2 seconds
  • FIG. 31 is displayed on the resistive touch panel display unit 212 in the playback mode of the digital camera 202 of the second embodiment shown in FIG. 14 or the digital camera 402 of the fourth embodiment shown in FIG. It is a screen figure which shows a reproduction
  • FIG. 31A an operation of cutting and storing a part of the reproduced image 502 displayed on the full screen in a circular shape for editing is shown, and the initial touch positions 512 and 514 of the thumb and index finger of the right hand 504 are shown. Is memorized first. Then, the movement status of the thumb and index finger indicated by arrows 516 and 518 as a result of sliding and rotating the right hand 512 within a predetermined time (for example, 2 seconds) from the initial touch is detected.
  • a predetermined time for example, 2 seconds
  • the right hand 504 is rotated clockwise, but as a result, the vertical spacing between the two points decreases as indicated by arrows 520 and 522, while indicated by arrows 524 and 526.
  • the horizontal distance between the two points increases.
  • the touching thumb and index finger each arc.
  • the circular region 528 having the diameters of the thumb touch position 512 and the index finger touch position 514 that are initially stored is recognized. Then, as shown in FIG. 31B, the recognized circular area 528 is cut out, and the image data is stored separately.
  • FIG. 32 is a flowchart showing the details of the playback mode in step S 174 together with step S 176 in the flowchart of FIG. 16 relating to the operation of the digital camera 202 of the second embodiment or the flowchart of FIG. 24 relating to the operation of the digital camera 402 of the fourth embodiment. .
  • step S352 the latest photographed image is displayed on the full screen on the resistive touch panel display unit 212.
  • step S354 it is checked whether a slide show operation has been performed. If there is no operation, it is checked in step S356 whether or not there is an image feed operation. If there is an operation, the process proceeds to step S358, and the full-screen display image is changed to the previous and subsequent images according to the operation, and the process proceeds to step S360. If there is no operation, the process proceeds directly from step S356 to step S360.
  • step S360 it is checked whether there is an operation for displaying thumbnails. If there is an operation, the process proceeds to the thumbnail display and selection process in step S362. This process first displays a list of thumbnails of a plurality of images, responds to the feeding operation as necessary, and further selects one of the thumbnails. When a thumbnail is selected, the process proceeds to step S364, the selected image is displayed on the full screen, and the process proceeds to step S366. On the other hand, if no thumbnail operation is detected in step S360, the process directly proceeds to step S366.
  • step S366 the latest captured image is displayed in full screen in step S352, or the full screen display of the image changed by image feeding in step S358, or the result of thumbnail selection in step S364.
  • One of the displayed images is displayed on the full screen.
  • Step S366 checks whether a one-point touch is detected in such a full-screen display state of the image.
  • the process proceeds to step S368, and it is checked whether the second point is touched within a predetermined time after the one-point touch detection and the two-point simultaneous touch state is detected.
  • This predetermined time is set to an extremely short time (for example, 0.5 seconds), and even if there is a slight deviation in what the operator intends to touch at two points simultaneously, it falls within this predetermined time.
  • the purpose of the installation in step S368 is to discriminate between what the operator intends to touch the second point after the first point touch and what is intended to simultaneously touch the two points.
  • step S370 the two touch positions are stored.
  • step S374 it is checked whether or not the positions of the two points touched for a predetermined time (for example, 2 seconds) or more are kept unchanged with reference to the two-point positions stored in step S372. If there is a change in the two-point position, the process proceeds to step S374, and as a result of the change in the two-point touch position, the change directions of the two-point horizontal interval (X-axis direction component) and the vertical interval (Y-axis direction component) are reversed. Check whether or not. As a result of this check, if it is detected that the two-point interval XY-axis component change direction is reversed, it proceeds to step S376 and determines that a rotation operation has been performed, and proceeds to step S378. In step S378, the circular area whose diameter is the two touch positions stored in step S370 is recognized, and the image of the recognized circular area is cut out and stored, and the process proceeds to step S176. This corresponds to the function shown in FIG.
  • step S380 if it is confirmed that the position of the two points touched for a predetermined time or longer is maintained unchanged with reference to the two point positions stored in step S372, the process proceeds to step S380, and step S370 is performed. A rectangular area having a diagonal line connecting the two points stored in (2) is recognized. Then, the image of the recognized rectangular area is cut out and stored, and the process proceeds to step S176. This corresponds to the function shown in FIG.
  • Step S176 describes the steps of the flowchart of FIG. 16 or the flowchart of FIG. 24 for easy understanding of the function of FIG. 32, and checks whether or not a shooting mode setting operation has been performed. If this setting is not detected, the flow returns to step S352 at the beginning of FIG. If it is detected in step S354 that a slide show operation has been performed, the process proceeds to the slide show process in step S382, and the slide show is executed. When the slide show is completed in the slide show process, the process returns to step S352.
  • steps S352 to S382 and step S176 are repeated to correspond to various operations in the playback mode.
  • the shooting mode setting operation is detected in step S176, the process proceeds to step S168 in FIG.
  • FIG. 33 is a flowchart illustrating another example of the details of the moving image shooting zoom process in step S314 of the flowchart of FIG. 28 relating to the fifth embodiment. Since most of them are common to the example shown in the flowchart of FIG. 29, common steps are denoted by common step numbers, and description thereof is omitted unless necessary. The difference between FIG. 29 and FIG. 33 will be described.
  • a predetermined amount of optical zoom up or down is driven in step S336 or step S342, respectively, but the speed is a predetermined speed.
  • the zoom speed is changed according to the increasing speed or decreasing speed of the horizontal distance between the two-hand thumb touch positions.
  • step S334 if it is not detected in step S334 that the optical zoom is at the telephoto end, the flow proceeds to step S384, and the speed of the predetermined amount increase in the horizontal distance between the two points determined in step S332 is obtained. Detect. Based on the detected increase speed, the zoom speed is determined in step S386. Next, in step S388, the optical zoom is driven up by a predetermined amount at the determined zoom speed. Similarly, when it is not detected in step S340 that the optical zoom is at the wide end, the process proceeds to step S390, and the speed of the predetermined amount decrease in the horizontal distance between the two points determined in step S338 is detected. Then, the zoom speed is determined in step S392 based on the detected decrease speed. Next, in step S394, a predetermined amount of optical zoom down driving is performed at the determined zoom speed. In this way, in the example shown in the flowchart of FIG. 33, zooming in response to the moving speed of the finger is performed.
  • FIG. 34 is an external perspective view showing Example 6 of the touch panel input device according to the embodiment of the present invention.
  • the sixth embodiment constitutes a digital camera 602, and the internal configuration is the same as that of the fourth embodiment in FIG.
  • the fourth embodiment as shown in FIGS. 21 and 22, when the digital camera 402 is held in front of, for example, with both hands, a subject image in the forward direction is displayed on the resistive touch panel display unit 212.
  • the fourth embodiment is configured as a camera having a so-called eye level finder
  • the sixth embodiment is configured as a camera having a waist level finder.
  • the operation of the digital camera 602 is performed by movement of a finger in a direction parallel to the optical axis 653, that is, movement of a finger sliding on the resistive touch panel display unit 612 in order to prevent camera shake.
  • the zoom operation is performed by sliding with a one-point touch of the index finger, for example, as indicated by an arrow 607.
  • Such zoom operation is performed, for example, by pushing the index finger of the right hand 605 forward (in the direction approaching the subject) along the arrow 607, and zooming up, and the index finger is moved backward (in the direction away from the subject) along the arrow 607. If the slide is in the direction parallel to the optical axis 653, the zooming down is performed by pulling to, so that the operation is intuitively easy to understand.
  • the shutter release is performed by maintaining the static touch of the index finger and sliding the thumb in an arbitrary direction as indicated by an arrow 609.
  • such shutter release by sliding a finger on a plane parallel to the optical axis 653 has a great effect of preventing camera shake.
  • the arrangement in which the optical axis 653 of the zoom lens optical system 652 is parallel to the resistive touch panel display unit 612 is also advantageous in disposing the relatively long zoom lens optical system 652 in the thin digital camera 602.
  • the digital camera 602 detects the direction of gravitational acceleration by an acceleration sensor 472 as shown in FIG. 20, it detects vertical screen shooting and horizontal screen shooting specific to the waist level finder.
  • the optical axis 653 is oriented 45 degrees or more above or 45 degrees or less with respect to the horizontal, the vertical direction of the resistive touch panel display unit 612 and the direction of the optical axis 653 are assumed to be the same and the landscape screen Judge as shooting.
  • the top-and-bottom information is reversed in the case of upward shooting or downward shooting.
  • the optical axis 653 is within 45 degrees above and below the horizontal, the determination is made in two cases.
  • the optical axis 653 when the optical axis 653 is within 45 degrees up and down with respect to the horizontal and the resistive touch panel display unit 612 is within 45 degrees with respect to the horizontal (that is, in a normal waist level shooting state as shown in FIG. 34), Judged as landscape screen shooting.
  • the optical axis 653 when the optical axis 653 is within 45 in the vertical direction and the resistive touch panel display unit 612 is tilted 45 degrees or more with respect to the horizontal, the subject on the left or right side of the resistive touch panel display unit 212 It is determined that the screen is shot vertically.
  • the top-and-bottom information is reversed depending on whether left-side shooting or right-side shooting.
  • FIG. 35 is a flowchart illustrating the function of the control unit 404 when the configuration of FIG. 20 is used in the sixth embodiment.
  • the flow of FIG. 35 starts, and the digital camera 602 is started up in step S402, and a still image is captured as an initial state in step S404.
  • the mode is set and the process proceeds to step S406.
  • step S406 it is checked whether or not a manual operation for setting the reproduction mode has been performed. If there is no operation, the process proceeds to step S408.
  • step S408 it is checked whether a one-point touch is detected.
  • the process proceeds to step S410, and it is checked whether or not the touch position remains unchanged for a predetermined time. If there is a change in the touch position within the predetermined time, the process proceeds to step S412 to check whether the change in the touch position is in the optical axis direction of the zoom lens. When a change in the touch position in the optical axis direction is detected, the process proceeds to zoom processing in step S414.
  • zoom processing when the change in the one-point touch position in the optical axis direction is a direction approaching the subject side, zooming is performed in response to the change speed and change amount, and conversely, the one-point touch position in the optical axis direction is changed.
  • zooming down is performed in response to the change speed and change amount. If the touch is released or the touch position does not change for a predetermined time, the zoom process is terminated and the process returns to step S406.
  • step S408 when a one-point touch is not detected in step S408, the process returns to step S406. Further, when the change in the touch position is not in the optical axis direction in step S412, the touch is regarded as an unintentional erroneous operation, and the process returns to step S406.
  • a playback mode setting operation is detected, a single point touch is detected and the position is detected to be unchanged for a predetermined time, or a change in the optical axis direction occurs at the single point touch position, Steps S406 to S414 are repeated.
  • step S410 when it is detected in step S410 that the one-point touch position is unchanged for a predetermined time, the process proceeds to step S416, the position where the touch is detected is stored, and the process proceeds to the focus / exposure adjustment process in step S418.
  • the contents of this process are basically the same as steps S154 and S156 in FIG.
  • step S420 When the focus / exposure adjustment processing in step S418 ends, the process proceeds to step S420, and it is checked whether a predetermined time (for example, 2 seconds) has elapsed since the one-point touch is detected in step S408.
  • a predetermined time for example, 2 seconds
  • step S422 If the elapse of the predetermined time is not detected in step S420, the process proceeds to step S422 to check whether the one-point touch is released. If the one-point touch release is not detected, the process proceeds to step S424 to check whether the two-point simultaneous touch state has occurred as a result of continuing the first point touch and touching the second point.
  • step S424 When the two-point simultaneous touch state is detected in step S424, the process proceeds to step S426, and it is checked whether the touch position of the second point has changed within a predetermined time (for example, 3 seconds for waiting for a photo opportunity).
  • a predetermined time for example, 3 seconds for waiting for a photo opportunity.
  • the process proceeds to step S428 to perform shutter release, and the process proceeds to step S432 through the imaging process in step S430. Details of the imaging process in step S430 will be described later.
  • step S424 if the two-point simultaneous touch state is not detected in step S424, the process returns to step S420, and then the second point touch is repeated by repeating steps S420 to S424 unless a predetermined time elapses or the one-point touch is released. Wait for. If there is no change in the second point touch position within the predetermined time in step S426, the process proceeds to step S432 assuming that execution of the shutter release has been postponed. As described above, the shutter release is executed by the movement of the finger sliding on the resistive touch panel display unit 612 parallel to the optical axis 653 in step S426, thereby preventing camera shake and performing the second touch without intention of the shutter release. This prevents the shutter release from being erroneously executed at the moment when it is performed. In step S432, it is checked whether or not the digital camera 602 has been turned off. When the power-off operation is detected, the flow ends.
  • step S420 when the elapse of a predetermined time is detected in step S420, or when one-point touch release is detected in step S422, the process proceeds to step S434, the memory of the one-point touch is canceled, and the process proceeds to step S432. This makes it possible to enter into the determination of a new first point touch position as will be described later.
  • step S406 when a playback mode setting operation is detected in step S406, the process proceeds to step S436, where playback mode processing is performed.
  • the routine periodically shifts to step S438 to check the presence / absence of the shooting mode setting operation, and if there is no operation, the process returns to step S436 to continue the playback mode. .
  • step S438 If a shooting mode setting operation is detected in step S438, the shooting mode is set in step S440, and the process proceeds to step S432. As described above, the flow ends when the power-off operation is detected in step S432, but when the power-off operation is not detected, the process returns to step S406.
  • steps S406 to S432 are repeated, basically corresponding to various operations in the shooting mode, as well as appropriately changing to the playback mode and returning to the shooting mode. To do. This is the same as in the second or fourth embodiment.
  • FIG. 36 is a flowchart showing details of the imaging process in step S340 of FIG.
  • color image processing including interpolation processing and contour enhancement processing is performed in step S442.
  • step S444 the processed color image is displayed as a still image on the resistive touch panel display unit 612 for a predetermined time, and the process proceeds to image compression processing in step S446.
  • the process proceeds to step S448 prior to the storage, and the acceleration sensor 472 detects the gravitational acceleration at the time of photographing.
  • step S450 it is checked whether or not the angle of the optical axis 653 at the time of shooting is inclined 45 degrees or more upward with respect to the horizontal. If this is the case, it is determined that the shooting is an upward shooting in which the arrangement side of the optical lens 652 is the upper side of the screen, and landscape image shooting information is set in step S452. On the other hand, if it does not correspond to step S450, the process proceeds to step S454, and it is checked whether or not the angle of the optical axis 653 at the time of photographing is inclined 45 degrees or more downward with respect to the horizontal. If this is the case, it is determined that the shooting is the downward shooting in which the arrangement side of the optical lens 652 is the lower side of the screen. .
  • step S450 if neither the step S450 nor the step S454 is applicable, the optical axis 653 is considered to be normal photographing close to the horizontal direction, so the process proceeds to step S458, and this time the resistive touch panel display unit 612 is 45. Check if it is tilted more than a degree. If not applicable, the resistive touch panel display unit 612 is also close to the horizontal, and it is considered to be a normal waist level photographing state in which the arrangement side of the optical lens 652 as shown in FIG. 34 is the upper side of the screen, so the process proceeds to step S452. , Set landscape screen shooting information.
  • step S458 if it is detected in step S458 that the resistive touch panel display unit 612 is inclined 45 degrees or more, the digital camera 602 is set up to aim at the left or right subject of the resistive touch panel display unit 612.
  • step S460 it is determined whether the optical axis direction is rightward. As can be seen from FIG. 34, when the digital camera 604 is set up so that the optical axis 653 is directed to the left, vertical screen shooting is performed with the right side of the optical axis 653 (upper side in FIG. 34) being the upper side of the screen.
  • step S460 when it is detected in step S460 that the optical axis direction is directed to the right, the top and bottom information is reversed in step S462 and the process proceeds to step S464 to set the portrait screen shooting information.
  • step S460 when it is detected in step S460 that the optical axis direction is directed to the left (in other words, not directed to the right), the process directly proceeds to step S464 to set the vertically long screen shooting information.
  • step S466 the process proceeds to step S466, and the determined information about the vertical screen shooting or the horizontal screen shooting is obtained in step S446. It is added to the compressed image information. Further, in step S468, the determined top and bottom information is added to the compressed image information in the same manner, and in step S470, a process of storing the compressed image with the additional information is performed, and the flow ends.
  • the feature of the addition of information on whether or not vertical screen shooting or horizontal screen shooting and whether or not the top and bottom information is reversed is that the optical axis 653 is fixed in parallel to the resistive touch panel display unit 612 as in the sixth embodiment.
  • the present invention is not limited to the application to the camera 602, and can be applied to a digital camera in which the relationship between the finder display surface and the optical axis is variable, such as an angle finder.
  • a camera whose optical axis is fixed at right angles to the viewfinder display surface it is possible to perform portrait screen shooting or landscape screen shooting by rotating the camera 90 degrees around the optical axis.
  • the first technical feature disclosed in this specification relates to a touch panel input device.
  • the problem to be solved by the first technical feature is to provide a practical touch panel input device using a touch panel capable of detecting multiple points.
  • the first technical feature disclosed in the present specification is suitable for a touch panel, a right-hand two-point touch input detection mode suitable for right finger placement, and a left finger placement.
  • a touch panel input device having a left-hand two-point touch input detection mode that can be switched, and an input control unit that detects a two-point touch on the touch panel in any one of the input detection modes. This makes it possible to perform a comfortable two-point touch input suitable for the arrangement of the right and left fingers.
  • the touch panel is configured as a touch panel display screen having a display and a touch panel function, and a right hand finger corresponding to a right hand two-point touch input detection mode and a left hand two-point touch input detection mode, respectively.
  • the touch panel is provided with a display control unit that provides a right-hand two-point touch input screen suitable for the arrangement of the left hand and a left-hand two-point touch input screen suitable for the arrangement of the left finger on the touch panel display screen.
  • a display control unit that provides a right-hand two-point touch input screen suitable for the arrangement of the left hand and a left-hand two-point touch input screen suitable for the arrangement of the left finger on the touch panel display screen.
  • the input control unit performs input based on detection of two points where a line connecting the two points goes down to the left, and two-point touch for the left hand
  • input is performed based on detection of two points where the line connecting the two points falls to the right.
  • the input control unit switches between a right-hand two-point touch input detection mode and a left-hand two-point touch input detection mode based on the identification information. This makes it possible to automatically switch the left and right two-point touch input detection mode.
  • the input control unit uses the identification information as to whether the line connecting the two detected points is left-down or right-down. As a result, the two-point touch information itself can be used as identification information, and there is no need to provide a separate identification means.
  • the input control unit performs different inputs based on the two-point detection information in the right-hand two-point touch input detection mode and the left-hand two-point touch input detection mode.
  • the input control unit is configured to determine a relative position between the two-point touch input detection mode for the right hand and the two-point touch input detection mode for the left hand based on the two-point detection information.
  • Information is input, and on the other hand, absolute position information of two points is input. This makes it possible to properly use a relative position input that is easy to input and an absolute position input that requires more strictness.
  • a touch panel display screen with display and touch panel functions a right hand two-point touch input screen suitable for right finger placement, and a left hand two-point touch input screen suitable for left finger placement Is provided on a touch panel display screen, and a touch panel input device having a detection unit for detecting a two-point touch on the touch panel is provided.
  • a touch panel input device having a detection unit for detecting a two-point touch on the touch panel.
  • the display control unit provides the two-point touch input screen for the right hand based on detection of two points where the line connecting the two points detected by the detection unit is lower left,
  • the input screen can be automatically switched based on the detection of two points where the line connecting the two points detected by the detection unit falls to the right, and there is no need to provide a separate identification means for switching the input screen.
  • the touch panel a detection unit that detects a two-point touch on the touch panel, and an identification that identifies whether a line connecting the two points detected by the detection unit is left-down or right-down
  • a touch panel input device having a unit is provided. Accordingly, for example, it is possible to automatically identify whether the two-point touch is performed with the right hand or the left hand.
  • an input control unit that performs a different input based on two points detected according to whether the line connecting the two detected points is left-down or right-down depending on the identification unit.
  • the input control unit is configured to detect two-point detection information in a case where a line connecting two detected points is left-down or right-down depending on the identification unit. The relative position information between the two is input based on the above, and the absolute position information of each of the two points is input on the other side.
  • the input control unit performs predetermined input in any one of cases where a line connecting two detected points is left-down or right-down. Is prohibited. Thereby, an inconvenient input operation can be prevented according to the situation.
  • the touch panel is configured as a touch panel display screen having a display and a touch panel function, and a line connecting two detected points is lower left or right depending on the identification unit.
  • the touch panel input device is provided with a display control unit that prohibits a predetermined display on the touch panel display screen in any one of the cases of falling. Thereby, an inconvenient GUI input operation can be prevented depending on the situation.
  • a second technical feature disclosed in the present specification relates to a touch panel input device.
  • the problem to be solved by the second technical feature is to provide a practical touch panel input device utilizing a touch panel capable of detecting multiple points.
  • a second technical feature disclosed in the present specification includes a touch panel, a detection unit that detects a two-point simultaneous touch state on the touch panel, and a two-point touch of the detection unit.
  • a touch panel input device having an input control unit that performs different input according to the timing of the.
  • the input control unit inputs different functions in response to the first point touch and the second point touch in the two point touch detected by the detection unit. Accordingly, different input can be continuously performed by the second touch subsequent to the first touch, and different input can be continuously performed by the continuous touch of different fingers such as the thumb and the index finger.
  • the input control unit makes the input different in response to a time interval from the first point touch detection to the second point touch detection in the two point touch detected by the detection unit. This makes it possible to perform a desired input without confusion due to a natural difference in touch feeling. For example, if there is a predetermined time interval between the first point touch detection and the second point touch detection, input that responds to the second point touch is prohibited to prevent accidental input due to the two point touch. can do.
  • the first point touch and the second point touch are input in association with each other, and this is performed intentionally.
  • the time interval between the first point touch detection and the second point touch detection is greater than or equal to a predetermined time, the input as the one point touch operation is executed. Two-point operation input can be used properly.
  • the touch panel a detection unit that detects a two-point simultaneous touch state on the touch panel, and a combination of the first point touch position and the second point touch position in the two point touch detected by the detection unit
  • a touch panel input device having an input control unit for performing input is provided. This enables input based on a combination of a plurality of elements.
  • the touch panel is configured as a touch panel display screen having a display and a touch panel function, and a display control unit for displaying a reference position of the touch on the touch panel display screen is provided.
  • the combination candidates are displayed appropriately and selected by two-point touch.
  • the input control unit is predetermined according to a relative position change between the specific first point touch position and the specific second point touch position in the two-point touch detected by the detection unit. Make input. As a result, it is possible to specify a combination by two-point touch and execute an input by the specified combination with a simple operation.
  • the input control unit receives a predetermined input by dragging a specific second point touch position to a specific first point touch position in the two point touch detected by the detection unit. Do. Thereby, the input by the designation
  • a specific example of such input is character input by a combination of character consonant elements and vowel elements.
  • a touch panel display screen having a display and a touch panel function; a display control unit that arranges a touch reference position of a consonant of a character and a touch reference position of a vowel of a character on a side portion of the touch panel display screen;
  • a touch panel input device comprising: a detection unit that detects a touch state on the touch panel display screen; and an input control unit that performs character input in response to touch detection by the detection unit.
  • the display control unit arranges a numeric keypad display at a central portion of the touch panel display screen. In this way, by placing the touch reference position of the consonant of the character and the touch reference position of the vowel of the character in the side part of the touch panel display screen, and placing the numeric keypad display in the center part of the touch panel display screen, Various touches can be input using the touch panel display screen.
  • the detection unit inputs a number by detecting a one-point touch state on the numeric keypad display on the touch panel display screen.
  • a combination of character consonants and vowels is designated by two-point touch
  • a touch reference position is arranged on a side portion of the touch panel display screen
  • a number is designated by one-point touch on the numeric keypad display.
  • a practical touch panel input device using a touch panel capable of detecting multiple points can be provided.
  • a third technical feature disclosed in the present specification relates to a touch panel input device.
  • a problem to be solved by the third technical feature is to provide a practical touch panel input device using a touch panel capable of detecting multiple points.
  • a third technical feature disclosed in the present specification includes a touch panel, a detection unit that detects a two-point simultaneous touch state on the touch panel, and a detection unit 2 that detects the detection point.
  • a touch panel input device having a first input mode for inputting a relative relationship as information based on a point touch position and an input control unit having a second input mode for inputting an absolute position where a touch is detected as information.
  • the input control unit inputs information based on two absolute positions detected by the detection unit.
  • the two-point touch information detected by the detection unit can be used as the relative relationship information and the absolute position information according to the purpose. For example, since the information is a relative position in the first input mode, if the relative information is the same regardless of which part of the touch panel is touched, the same input can be performed.
  • the second input mode it is possible to input two-dimensional absolute position information such as an area on the touch panel specified based on the absolute position of two points by using the absolute position information of two points. .
  • the input control unit inputs information based on a relative change in the two-point touch position detected by the detection unit in the first input mode.
  • the input control unit detects the absolute value on the touch panel based on whether the two-point touch position detected by the detection unit is relatively separated or approached. Two types of information can be input regardless of the position.
  • the input control unit in the first input mode, inputs information based on a relative interval between the two-point touch positions detected by the detection unit. According to a more specific feature, in the first input mode, the input control unit determines whether the relative distance between the two-point touch positions detected by the detection unit is larger or smaller than a predetermined absolute value on the touch panel. Two types of information can be input regardless of the position.
  • the touch panel is configured as a touch panel display screen having a display and a touch panel function.
  • the first input mode is for information input during traveling and the second input mode is set. It can be used for information input when the vehicle is stopped.
  • the touch panel is configured as a display and input means of a car navigation device mounted on a vehicle
  • the first input mode is for information input by a driver and the second input mode is set. It can be used for information input by passengers.
  • the first input mode is suitable as an input for preventing danger
  • the second input mode is suitable as an input having a large amount of information.
  • a touch panel a detection unit that detects a two-point simultaneous touch state on the touch panel, and an input control unit that inputs information based on a relative distance between two-point touch positions detected by the detection unit;
  • a touch panel input device is provided.
  • the input control unit includes two types of information regardless of the absolute position on the touch panel based on whether the relative distance between the two-point touch positions detected by the detection unit is larger or smaller than a predetermined value. Information can be entered.
  • the input control unit inputs information based on the parallel movement of the two-point touch position detected by the detection unit. As a result, it is possible to reliably input the two-stage information by a simple movement regardless of the absolute position on the touch panel.
  • a touch panel a detection unit that detects a two-point simultaneous touch state on the touch panel, and an input control unit that inputs information based on a parallel movement of a two-point touch position detected by the detection unit;
  • a touch panel input device is provided.
  • the input control unit inputs information based on a translation amount of the two-point touch position detected by the detection unit.
  • the input control unit inputs information based on a translation speed of the two-point touch position detected by the detection unit.
  • a first mode for inputting information based on a touch panel a detection unit that detects a one-point touch state and a two-point simultaneous touch state on the touch panel, and a one-point touch position detected by the detection unit.
  • an input control unit having a second mode for inputting information based on the two-point touch position detected by the detection unit.
  • the touch panel is configured as a display and input means for a car navigation device mounted on a vehicle, the first mode is used for information input during traveling, and the second mode is stopped. Used for information input.
  • the touch panel is configured as a display and input unit of a car navigation device mounted on a vehicle, the first mode is used for information input by a driver and the The second mode is used for information input by passengers.
  • the first mode is suitable as an input for preventing danger
  • the second mode is suitable as an input with a large amount of information.
  • a practical touch panel input device utilizing a touch panel capable of detecting multiple points can be provided.
  • a fourth technical feature disclosed in this specification relates to a digital camera.
  • the problem to be solved by the fourth technical feature is to provide a digital camera that is easy to operate.
  • a fourth technical feature disclosed in the present specification is a touch panel display screen having a display and a touch panel function, a zoom lens, and an optical image captured by the zoom lens.
  • An imaging unit that obtains an image; a display control unit that displays a digital image obtained by the imaging unit on the touch panel display screen; a touch position detection unit that detects a two-point simultaneous touch state on the touch panel display screen;
  • a digital camera having a zoom control unit that drives the zoom lens based on a two-point touch position detected by a touch position detection unit is provided. Thereby, an easy zoom operation by a touch operation is possible.
  • the zoom control unit drives the zoom lens based on a relative distance between two touch positions detected by the touch position detection unit. Thereby, an easy zooming operation independent of the absolute position of the touch is possible.
  • the zoom control unit drives the zoom lens based on a horizontal relative distance between the two-point touch positions detected by the touch position detection unit. Thereby, for example, it is possible to perform a zoom operation with the thumbs of both hands having a digital camera.
  • the zoom control unit has a horizontal relative interval between two touch positions detected by the touch position detection unit based on detection by the gravity direction detection unit. Judging. This makes it possible to zoom with the same operation of the thumbs of both hands holding the digital camera when holding the digital camera with a rectangular screen with both hands in the horizontal position shooting state and holding with both hands in the vertical position shooting state. It becomes possible.
  • the zoom control unit determines a zoom amount based on a relative interval between the two-point touch positions detected by the touch position detection unit. This makes it possible to easily set the zoom objective magnification.
  • the zoom control unit determines a zoom direction based on a relative change in the two-point touch position detected by the touch position detection unit. This makes it possible to easily zoom up and down in a posture where the digital camera is held with both hands.
  • the zoom control unit determines a zoom amount based on a relative interval change amount or a relative interval change speed of a two-point touch position detected by the touch position detection unit. This makes it possible to easily determine the zoom amount sensuously.
  • the zoom control unit drives the zoom lens following a change in the relative distance between the two-point touch positions detected by the touch position detection unit. Accordingly, a zoom operation that follows the movement of the finger to be touched can be performed, and for example, a zoom operation unit suitable for zooming during moving image shooting can be provided.
  • the zoom control unit identifies a two-point simultaneous touch as a zoom operation based on a detection progress from a one-point touch detected by the touch panel display screen to a two-point simultaneous touch state.
  • the zoom control unit performs zoom operation to establish the two-point simultaneous touch state based on a detection progress from the one-point touch detected by the touch position detection unit to the two-point simultaneous touch state. Or a shutter release operation.
  • An example of the difference in detection progress is, for example, a difference in time interval from when a one-point touch is made until a two-point touch state is established. It is possible to identify whether the shutter release operation is performed by the second touch that is intentionally performed after the touch is continued.
  • a touch panel display screen having a display and a touch panel function, a lens, an imaging unit that captures an optical image by the lens and obtains a digital image, and a digital image obtained by the imaging unit is displayed on the touch panel.
  • a touch position detection unit that detects a two-point simultaneous touch state on the touch panel display screen, an image storage unit, and a two-point simultaneous touch state detected by the touch position detection unit.
  • a digital camera having an imaging control unit that stores an image of the imaging unit in the image storage unit.
  • the imaging control unit recognizes a one-point touch detected by the touch position detection unit as designation of a subject portion and stores an image acquired by the imaging unit by detecting a two-point simultaneous touch state in the image storage unit. can do.
  • a touch panel display screen having a display and a touch panel function, a zoom lens, an imaging unit that captures an optical image by the zoom lens and obtains a digital image, and a part of an image obtained by the imaging unit
  • a digital camera having a zoom control unit that controls the zoom lens and the electronic zoom processing unit based on detection by the touch position detection unit is provided.
  • the zoom control unit decelerates the zoom speed at the end of zooming when controlling the electronic zoom processing unit based on detection by the touch position detection unit.
  • a display screen a zoom lens, an imaging unit that captures an optical image by the zoom lens to obtain a digital image, and an electronic zoom processing unit that enlarges a part of the image obtained by the imaging unit
  • a display control unit for displaying a digital image processed by the electronic zoom processing unit on a display screen; and controlling the zoom lens and the electronic zoom processing unit and controlling the electronic zoom processing unit;
  • a digital camera having a zoom control unit for reducing a zoom speed. This enables zoom control without a sense of incongruity between electronic zoom and optical control.
  • the zoom control unit does not perform zoom speed reduction at the end of the electronic zoom when the zoom lens is controlled following the control of the electronic zoom processing unit. Accordingly, it is possible to smoothly perform the transition when the optical zoom is continued to the electronic zoom while reducing the uncomfortable feeling at the end of the zoom between the electronic zoom and the optical zoom.
  • a fifth technical feature disclosed in this specification relates to a digital camera.
  • the problem to be solved by the fifth technical feature is to provide a digital camera that is easy to operate.
  • a fifth technical feature disclosed in the present specification includes a zoom lens, a touch panel display screen having a display parallel to the optical axis of the zoom lens and a touch panel function, An imaging unit that captures an optical image by a zoom lens to obtain a digital image, a display control unit that displays the digital image obtained by the imaging unit on the touch panel display screen, and a touch that detects a touch state on the touch panel display screen
  • a digital camera having a position detection unit and a control unit that performs control based on a touch position detected by the touch position detection unit is provided.
  • the control unit controls driving of the zoom lens when the touch position detection unit detects sliding of the touch position on the touch panel display screen.
  • the arrangement in which the optical axis of the zoom lens is parallel to the touch panel display screen enables the zoom lens to be driven by movement on a plane parallel to the optical axis of the zoom lens, and is perpendicular to the optical axis. Camera shake due to direction movement can be avoided.
  • the control unit controls driving of the zoom lens when the touch position detection unit detects sliding of the touch position in a direction parallel to the optical axis of the zoom lens.
  • control unit causes the zoom lens to zoom up when the touch position detection unit detects the movement of the forward touch position parallel to the optical axis of the zoom lens,
  • the zoom lens is caused to perform zoom-down when movement of the rearward touch position parallel to the optical axis is detected.
  • the control unit causes a shutter release based on detection of a two-point simultaneous touch state by the touch position detection unit. Accordingly, it is possible to perform a shutter release operation in a natural flow while avoiding an erroneous operation.
  • the control unit causes a shutter release when at least one of the movements is detected in the two-point simultaneous touch detection state by the touch position detection unit. This makes it possible to further reduce the possibility of erroneous operation, and at the time of shutter release by operating the movement in the direction perpendicular to the optical axis due to the shutter release by movement on a plane parallel to the optical axis of the zoom lens. Can avoid camera shake.
  • a zoom lens a touch panel display screen having a display and a touch panel function, an imaging unit that captures an optical image by the zoom lens and obtains a digital image, and a digital image obtained by the imaging unit
  • a display control unit that displays on the touch panel display screen, a touch position detection unit that detects a touch state on the touch panel display screen, and a control unit that performs predetermined control based on slide detection of the touch position by the touch position detection unit
  • Such an operation based on the slide detection of the touch position is more useful in preventing camera shake and erroneous operation than in the operation at the time of touch that gives a vertical impact to the touch panel display screen.
  • the control unit controls driving of the zoom lens when the touch position detection unit detects sliding of the touch position on the touch panel display screen. More specifically, the control unit controls driving of the zoom lens when the touch position detection unit detects sliding of the touch position in a direction parallel to the optical axis of the zoom lens. As a result, an intuitively easy-to-understand zoom operation is possible.
  • the control unit causes the shutter release to be performed when the touch position detection unit detects a slide of the touch position on the touch panel display screen. As a result, the possibility of erroneous operation can be reduced, and the possibility of camera shake can be reduced by the shutter release caused by the movement of the finger on the touch panel display screen.
  • an imaging optical system a display screen, an imaging unit that captures an optical image by the imaging optical system to obtain a digital image, and a digital image obtained by the imaging unit is displayed on the display screen.
  • the digital camera further includes a storage control unit that adds information about the orientation of the display screen detected by the gravity detection unit to the digital image and stores the information in the storage unit.
  • a storage control unit that adds information about the orientation of the display screen detected by the gravity detection unit to the digital image and stores the information in the storage unit.
  • the storage control unit is configured to display information about the optical axis direction of the imaging optical system and the orientation of the display screen detected by the gravity detection unit.
  • a digital image As a result, for example, when a digital image is reproduced with a digital photo frame, the information image can be automatically reproduced in an upright state regardless of whether the image is taken in landscape orientation or portrait orientation.
  • the storage control unit adds information on the optical axis direction of the imaging optical system detected by the gravity detection unit to the digital image as top-and-bottom information on the screen.
  • the storage control unit adds information on the optical axis direction of the imaging optical system detected by the gravity detection unit to the digital image as top-and-bottom information on the screen.
  • the optical axis of the imaging optical system is configured to be parallel to the display screen.
  • Such a configuration is suitable for so-called waist level shooting, but as long as shooting is performed in a state where the display screen is almost horizontal, it is not possible to shoot using both landscape screen shooting and portrait screen shooting.
  • the landscape screen is shot with the display screen close to the horizontal, it is necessary to tilt the display screen near the vertical to capture the portrait screen. Therefore, the information on the optical axis direction by gravity acceleration detection and the information on the orientation of the display screen are useful as information indicating the erect direction of the digital image photographed in these various situations.
  • a digital camera that is easy to operate can be provided.
  • a sixth technical feature disclosed in this specification relates to a touch panel input device capable of detecting two points.
  • a problem to be solved by the sixth technical feature is to provide a practical touch panel input device using a touch panel capable of detecting two points.
  • a sixth technical feature disclosed in the present specification includes a touch panel display screen having a display and a touch panel function, and positions of two points touched simultaneously on the touch panel display screen. And an input control unit for inputting information based on the relative positional relationship of the first direction component, the relative positional relationship of the second direction component different from the first direction component, and the time information regarding the touch of two points.
  • a touch panel input device capable of detecting two points is provided. As a result, information input utilizing the two-point detection capability becomes possible.
  • the touch panel display screen has a rectangular shape
  • the first direction component is a direction parallel to one side of the rectangular shape
  • the second direction component is the other side perpendicular to the one side. Is parallel to the direction.
  • the input control unit performs input control based on a relative magnitude relationship in one of two first direction components and second direction components at the same time.
  • an input based on the vertical relationship or the horizontal relationship between two points is possible, and furthermore, since these relationships are relative, an input that does not depend on the exact absolute position of the two points is possible.
  • the input control unit performs input control based on a relative distance between two points at the same time.
  • input based on the distance between the two points regardless of the direction becomes possible, and furthermore, since the relative distance is information, it is possible to input without depending on the exact absolute position of the two points.
  • the input of the input control unit based on a relative distance between one or two of the first direction component and the second direction component of the two points at the same time is a position of two points for a predetermined time. Determined when does not change. As a result, it is possible to prevent an unexpected input when two points are touched by mistake, and to perform an input when the touch positions of the two points are intentionally maintained without moving for a predetermined time.
  • the input control unit performs input based on a combination of the absolute positions of the two points based on the absolute positions of the two points and the relative position change of the two points as time elapses from the absolute position.
  • the input control unit detects this as a change in the relative position of the two points with the passage of time.
  • the input control unit performs input control based on a two-point touch when a two-point touch is detected within a predetermined time, and detects a second touch from the first touch detection.
  • input control different from input control based on two-point touch is performed. Accordingly, it is possible to perform input based on the two-point touch without strictly touching the two points simultaneously, and to perform input different from the two-point simultaneous touch by the first point touch and the second point touch. More specifically, the input control unit controls the input of the first touch based on the second touch when the time from the first touch detection to the detection of the second touch exceeds a predetermined time.
  • the input control unit performs input control based on a two-point touch based on detection of parallel movement over time of two points. As a result, it is possible to perform an input by a two-point operation without placing an operational burden on the hand.
  • the input control unit performs input control based on a two-point touch based on detection of a relative movement of two points at the same time and a parallel movement according to the passage of time. Thereby, the relative position information of the two points for determining the input information and the input can be surely performed.
  • the input control unit performs input control based on a change in the relative relationship between one of the two first components and the second component over time.
  • the input control unit includes a change direction of a relative relationship between the two first direction components with time and a change direction of the relative relationship between the two second direction components with the passage of time.
  • the input control is performed based on the reverse. As a result, it is possible to perform an input by an operation of twisting the two touch positions.
  • the input control unit is configured to change the relative change direction of the two first direction components with time and the two points with time.
  • circle input control is performed.
  • a circle can be input by a natural operation of drawing an arc with two fingers.
  • the input control unit sets a relative distance between two points touched at a predetermined time as the diameter of the circle.
  • a circle can be input by drawing a roughly short arc. This is a very efficient and easy input means compared to drawing a circle at one point.
  • the present invention is applied to, for example, a touch panel input device mounted on a navigation device of a vehicle or a touch panel input device mounted on a digital camera (for example, a touch panel input device for performing a zoom operation of a digital camera). Can do.
  • the present invention can also be applied to a digital camera or the like equipped with a touch panel input device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Navigation (AREA)

Abstract

 本明細書中に開示されているタッチパネル入力装置は、タッチパネルと、右手指の配置に適した右手用2点タッチ入力検知態様と左手指の配置に適した左手用2点タッチ入力検知態様が切り換え可能であり、そのいずれかの入力検知態様において前記タッチパネルへの2点タッチを検知する入力制御部と、を有する。

Description

タッチパネル入力装置
 本発明は、タッチパネル入力装置に関する。
 デジタルカメラの操作に関しては種々の提案がなされており、例えば特許文献1ではタッチパネルを供えたデジタルカメラが提案されている。
 一方、タッチパネル入力装置に関しては種々の提案がなされており、例えば特許文献2や特許文献3には、2点のタッチ位置が検出可能なアナログ抵抗膜方式タッチパネルが提案されている。
 また、特許文献4には、タッチパネルのダイアルボタンとして作用することが可能な表示装置を備え、カメラレンズを回転可能とすることにより、普通は矢印Dの方向に向けられるとともに表示装置を観察する使用者にも向けられるようにしたデジタルカメラが提案されている。
特開2009-105919号公報 特開2009-146191号公報 特開2010-26641号公報 特開平11-32245号公報
 しかしながら、タッチパネルの活用においては具体的に検討しなければならない種々の問題があり、特に多点の検知が可能なタッチパネルについては実用面における検討が未だ不充分である。
 本発明の課題は、上記に鑑み、多点の検知が可能なタッチパネルを活用した実用的なタッチパネル入力装置を提供することにある。
 上記の目的を達成するために、本発明に係るタッチパネル入力装置は、タッチパネルと、右手指の配置に適した右手用2点タッチ入力検知態様と左手指の配置に適した左手用2点タッチ入力検知態様が切り換え可能であり、そのいずれかの入力検知態様において前記タッチパネルへの2点タッチを検知する入力制御部と、を有する。
 本発明によると、多点の検知が可能なタッチパネルを活用した実用的なタッチパネル入力装置を提供することが可能となる。
本発明の実施の形態に係るタッチパネル入力装置の実施例1を示すブロック図である。(実施例1) 図1の抵抗膜式タッチパネル表示部において右ハンドル車の運転席側から左手でメニュー選択操作する場合の表示画面図である。 図1の抵抗膜式タッチパネル表示部において右ハンドル車の助手席側から右手でメニュー選択操作する場合の表示画面図である。 図1の抵抗膜式タッチパネル表示部において行先入力操作を行う場合の表示画面図である。 図1の抵抗膜式タッチパネル表示部において走行中に地図の拡大縮小操作をする場合の左手操作と右手操作の違いを説明する画面図である。 図5(B)の状態から2点の絶対位置で決まる矩形領域を抵抗膜式タッチパネル表示部いっぱいに拡大する操作を示す画面図である。 図6の経過を経て地図が拡大された履歴がある場合において、その地図を所望の点を中心に所定の縮小率にて広域側に縮小する操作を示す画面図である。 図5(A)の状態から、2点の絶対位置がどこにあるかにかかわらず地図の拡大操作を行う際の画面図である。 図5(A)の状態から、2点の絶対位置がどこにあるかにかかわらず地図の縮小操作を行う際の画面図である。 図1の実施例1における制御部の動作のフローチャートである。 図10のステップS10の詳細を示すフローチャートである。 図10のステップS16の詳細を示すフローチャートである。 図10のステップS24の詳細を示すフローチャートである。 本発明の実施の形態に係るタッチパネル入力装置の実施例2を示すブロック図である。(実施例2) 実施例2の抵抗膜式タッチパネル表示部に表示される被写体画像を示す画面図である。 実施例2における制御部の動作のフローチャートである。 本発明の実施の形態に係るタッチパネル入力装置の実施例3において、援用される図5(A)の状態から、2点の絶対位置がどこにあるかにかかわらず地図の拡大を行う際の画面図である。(実施例3) 実施例3において、図5(A)の状態から、2点の絶対位置がどこにあるかにかかわらず地図の縮小を行う際の画面図である。 実施例3において援用される図10のステップS24の地図タッチ処理の詳細を示すフローチャートである。 本発明の実施の形態に係るタッチパネル入力装置の実施例4を示すブロック図である。(実施例4) 実施例4の抵抗膜式タッチパネル表示部に横長状態で表示される拡大ズーム時の被写体画像を示す画面図である。 実施例4の抵抗膜式タッチパネル表示部に横長状態で表示される縮小ズーム時の被写体画像を示す画面図である。 実施例4の抵抗膜式タッチパネル表示部に縦長状態で表示されるズーム時の被写体画像を示す画面図である。 実施例4における制御部の動作のフローチャートである。 図24のステップS204の詳細を示すフローチャートである。 図25のステップS230の詳細を示すフローチャートである。 図25のステップS234の詳細を示すフローチャートである。 本発明の実施の形態に係るタッチパネル入力装置の実施例5における制御部の動作のフローチャートである。(実施例5) 図28のステップS314の詳細を示すフローチャートである。 図14の実施例2または図20の実施例4の抵抗膜式タッチパネル表示部に表示される再生画像を示す画面図である。 図14の実施例2または図20の実施例4の抵抗膜式タッチパネル表示部に表示される他の再生画像を示す画面図である。 図16または図24のステップS174の詳細をステップS176とともに示すフローチャートである。 実施例5に関する図28のフローチャートのステップS314の詳細の他の例を示すフローチャートである。 本発明の実施の形態に係るタッチパネル入力装置の実施例6を示す外観斜視図である。(実施例6) 実施例6に図20の構成を援用した場合の制御部の機能を説明するフローチャートである。 図35のステップS340の詳細を示すフローチャートである。
<実施例1>
 図1は、本発明の実施の形態に係るタッチパネル入力装置の実施例1を示すブロック図である。実施例1は車両のナビゲーション装置(以下カーナビ装置)2を構成しており、装置全体を制御するコンピュータからなる制御部4を有し、運転者による操作部6の操作に応じて、カーナビ装置2を制御する。この制御部4の機能は記憶部8に格納されたソフトウエアによって実行される。記憶部8は、またカーナビ装置2の制御に必要な種々のデータを一時的に格納する。また、制御部4は表示ドライバ10を介して抵抗膜式タッチパネル表示部12の表示を制御し、操作部6の操作に必要なGUI表示を行うとともに制御結果の表示を行う。
 抵抗膜式タッチパネル表示部12は表示部であるとともにタッチパネル入力装置となっていて、表示に直接タッチすることにより入力操作を行うGUI操作部となっている。また、抵抗膜式タッチパネル表示部12は、上下左右のタッチ位置情報を出力する4線の出力線(図1では、簡単のため情報伝達方向を示す一本の線で図示)によって制御部4に接続されており、制御部4はこの4線の出力を分析処理することにより、2点のタッチ位置およびその移動を検知することが可能である。この2点のタッチ位置検知による入力の詳細については、後述する。
 GPS部14は、GPSシステムに基づいて衛星および最寄の放送局よりカーナビ装置2の搭載された車両の絶対位置情報である緯度、経度、および高度の情報を得て制御部4に送る。制御部4は、GPS部14からの絶対位置情報を処理し、地図記憶部16の提供する地図上での車両の位置を抵抗膜式タッチパネル表示部12に表示する。
 カーナビ装置2は、地図記憶部16に記憶する地図情報の更新等のために無線で外部と通信するため、無線通信部18およびケーブル経由の入出力部20を備えている。なお、無線通信部18は、通常の電話回線によるものであってもよいし、専用の近距離無線通信部であってもよい。これらの無線通信部18および入出力部20は地図情報の入手の他、カーナビシステムまたはGPSシステムについて機能のバージョンアップやメンテナンスデータが発生したとき、外部と通信してこれらの情報を入手することができる。なお、制御部4への操作情報入力は、操作部6または抵抗膜式タッチパネル表示部12からの操作に加え、マイク19から音声によっても行うことができる。また、運転者等への情報出力は抵抗膜式タッチパネル表示部12での表示に加え、スピーカ21により音声によっても行うことができる。
 図2から図9は、図1の抵抗膜式タッチパネル表示部(以下、「表示部」と略称)12における表示および2点タッチ検知に関連する種々の機能を説明するための表示画面図である。なお、カーナビ装置2において、表示部12は車両の中央部付近に配置されるのが常であるが、右ハンドル車の場合を例にとり、運転者または助手席乗車者が表示部12におけるタッチパネルを利用して種々のGUI操作をどのように行うかについて説明する。
 まず、図2は、表示部12上に表示されるメニューにタッチしてメニュー選択を行うGUI操作を行う場合を示す。図2は、運転者が操作している場合であって、この場合、操作する手は左手22となる。2点にタッチするには親指とそれ以外の任意の指のいずれか(例えば中指)を用いるのが種々の操作において最も自由度が大きいが、運転席に座った運転者が左手22を自然に表示部12においた場合、図2(A)に示すように親指の指先は他の指の指先よりも低い位置になる。従って親指のタッチ位置24とそれ以外の任意の指のいずれか(例えば中指であり、以下中指を例にとって説明する)のタッチ位置26を結んだ線は通常、右下がり(表示部12上でタッチ位置26からタッチ位置24を見た場合)となる。
 制御部4は、表示部12からの情報に基づき右下がりの2点が同時タッチ状態にあることを検知すると、表示ドライバ10に指示して図2のような左手用メニューレイアウトを表示部12に表示させる。具体的に述べると、左手用メニューレイアウトでは、左手22の親指以外のタッチが予定される行先メニュー28、オーディオメニュー30およびエアコンメニュー32が表示部12の左上寄りに配置されるとともに、親指のタッチが予定される決定エリア34は、表示部12の右下寄りに配置される。なお、制御部4が左手用メニュー表示を指示する段階では、親指のタッチ位置24と中指のタッチ位置26の絶対位置はどこでもよく、同時タッチ状態の2点を結んだ線が相対的に右下がりであることだけが判定の情報となる。
 次に、このような左手用レイアウトにおけるメニュー選択について説明する。例えば中指がメニューの一つ(例えば行先メニュー28)にタッチされ、同時に親指が決定エリア34にタッチされていると判断されると、親指のタッチ位置24と中指のタッチ位置26の絶対位置が検出され、それに応答して図2(A)のようにタッチが検知された行先メニュー28および決定エリア34が太枠で表示される。この状態で、親指の決定エリア34へのタッチを継続したまま中指のタッチ位置をずらすことによって他のメニューを選択することも可能であり、これに応答して太枠表示が行先メニュー28からオーディオメニュー30またはエアコンメニュー32に移動する。このようなメニュー選択の移動は、白矢印36に示すように左手22を上下に平行移動することによって可能である。そしてこのような左手22の平行移動によって親指が白矢印38に示すように上下に平行移動してもそのタッチ状態が保持されるよう、決定エリア34は上下に長く設定されている。
 なお、メニュー選択の変更は、上記のように左手22を上下に平行移動する場合に限らず、左手22の自然な動きに応じて任意の2点タッチを行うことが可能である。手の他の動きの例については後述する。また、必ずしも上記のように2点のタッチ状態を保ったままで手の移動を行う必要はなく、一度指を表示部12から完全に離し、その後、新たな選択のために中指および親指のタッチを行ってもよい。また、2点のタッチは完全に同時に行う必要はなく、まず中指でメニューのいずれかにタッチしてから親指で決定エリア34にタッチしてもよい。逆に、先に親指で決定エリア34にタッチしてからこれを支点として中指でメニューのいずれかにタッチしてもよい。図2のように左手用レイアウトが表示されてからのメニュー選択画面では、メニュー28、30、32のいずれかおよび決定エリア34の2点の同時タッチ状態が検出されない限り、これに反応してメニュー28、30、32および決定エリア34が太枠表示に変わることはない。
 メニュー選択を確定させるためには、例えば、図2(A)のように行先メニュー28および決定メニュー34が太枠表示となっている状態において、中指および親指のタッチを継続したまま黒矢印40で示すように親指を中指に向かってスライドさせる。この親指の動きによって決定エリア34が行先メニュー24に向かってドラグされ、例えば両者が重なるまでドラグされた状態になると行先メニュー28の選択が確定される。そして左手22を表示部12から離すと図2(B)に示すように選択が確定された行先メニュー28の表示色が変わり、メニューの選択が確定されたことを表示する。
 図3は、表示部12を右ハンドル車の助手席側から操作する場合の表示画面図であり、この場合、操作する手は右手42となる。助手席に座った同乗者が右手42を自然に表示部12においた場合、図3(A)に示すように右手42の親指の指先は他の指の指先よりも低い位置になる。従って親指のタッチ位置44と中指のタッチ位置46を結んだ線は通常、左下がり(表示部12上でタッチ位置46からタッチ位置44を見た場合)となる。
 この場合、制御部4は、表示部12からの情報に基づき左下がりの2点が同時タッチ状態にあることを検知すると、表示ドライバ10に指示して図3のような右手用メニューレイアウトを表示部12に表示させる。具体的に述べると、右手用メニューレイアウトでは、行先メニュー48、オーディオメニュー50およびエアコンメニュー52は表示部12の右上寄りに配置されるとともに、親指のタッチが予定される決定エリア54は、表示部12の左下寄りに配置される。このように図3において表示部12の左側から右手42で操作する際のレイアウトは、図2のように表示部12の右側から左手22で操作する場合と左右対称なので、感覚的に同様の操作となり、混乱することがない。なお、左手レイアウト決定の場合と同様、制御部4が右手用メニュー表示を指示する段階では、同時タッチ状態の2点を結んだ線が相対的に左下がりであることだけが判定の情報となる。
 次に、図3の右手用レイアウトにおけるメニュー選択について説明する。基本的には図2の右手用レイアウトと同様なので、異なるところを中心に簡略に説明する。例えば中指がメニューの一つ(例えばオーディオメニュー50)にタッチされ、同時に親指が決定エリア54にタッチされていると判断されると、図2と同様にして親指のタッチ位置44と中指のタッチ位置46の絶対位置が検出され、それに応答して図3(A)のようにタッチが検知されたオーディオメニュー50および決定エリア54が太枠で表示される。以下、図3では、図2とは手の異なった動きによる2点タッチの例を示すが、図2や図3に限ることなく、自然な手の動きによる2点タッチが可能であることはいうまでもない。
 図3では、親指の決定エリア54へのタッチを支点としてこれを中心に右手42を白矢印56のように回転させることにより中指のタッチ位置46をずらし、他のメニューを選択することが可能である。また、親指は必ずしも固定している必要はなく、決定エリア54の中で自然な移動を伴ってもよい。このような中指のタッチ位置46の移動に応答して太枠表示がオーディオメニュー50から行先メニュー48またはエアコンメニュー52に移動する。
 なお、このようなメニュー選択の変更は、必ずしも上記のように2点のタッチ状態を保ったまま行う必要はなく、一度指を表示部12から完全に離し、その後新たな選択のために中指および親指のタッチを行ってもよいことは図2(A)の場合と同様である。また、2点のタッチは完全に同時に行う必要がないことも図2(A)の場合と同様である。図3のように右手用レイアウトにおいても、このレイアウトが表示されてからのメニュー選択画面では、メニュー48、50、52のいずれかおよび決定エリア54の2点の同時タッチ状態が検出されない限り、これに反応してメニュー48、50、52および決定エリア54が太枠表示に変わることはないからである。
 メニュー選択の確定は、図2(A)と同様にして、例えば、図3(A)のようにオーディオメニュー50および決定メニュー54が太枠表示となっている状態において、中指および親指のタッチを継続したまま黒矢印58で示すように親指を中指に向かってスライドさせ、決定エリア54をオーディオメニュー50に向かってドラグすれば、両者が重なる時点でオーディオメニュー50の選択が確定される。そして右手42を表示部12から離すと図3(B)に示すように選択が確定されたオーディオメニュー50の表示色が変わり、メニューの選択が確定されたことを表示する。
 なお、制御部4は、右下がりの2点同時タッチ状態が検知されたときであっても車両が走行中の場合は図2の左手用レイアウトを表示せず、代わりに「走行中は運転者によるメニュー変更操作禁止」の旨を表示部12上の表示またはスピーカ21のアナウンスにより運転者に告知する。これは、走行中の運転者の操作による事故を防止するためである。なお、制御部4が左下がりの2点同時タッチ状態が検知されたときは車両が停止中であっても走行中であっても図3の右手用レイアウトが表示されるので、走行中であれば助手席の同乗者にメニューの変更を依頼することができる。ここで、右手用レイアウトが表示されているとき、運転者の右手(または左手の不自然な姿勢)により左下がりの2点タッチをすることも不可能ではないが、運転者がこのような危険な行動を取らないよう、事前に使用説明書において告知徹底を行う。
 図4は、図2(B)のようにして行先メニューの選択が決定することにより自動的に表示される行先入力用の表示画面図を示す。図4(A)は左手用レイアウトであり、図2(A)と同様にしてタッチされた2点を結んだ線が相対的に右下がりであることが検知されることにより表示される。図4では、親指のタッチ位置60と親指以外の指(図4では例として人差指)のタッチ位置62の2点の相対位置を検知している。
 図4(A)に示した行先入力用の表示画面の左手用レイアウトでは、左手22の親指以外のタッチが予定される「あかさたなはまやらわ」の「あ」以外の各行をそれぞれ意味する「K」、「S」、「T」、「N」、「H」、「M」、「Y」、「R」、「W」の子音ボタン群64(簡単のため代表として「K」のみに番号付与)が表示部12の画面上端近傍に配置されるとともに、親指のタッチが予定される「あいうえお」の各段をそれぞれ意味する「a」、「i」、「u」、「e」、「o」の母音ボタン群66(簡単のため代表として「a」のみに番号付与)が表示部12の画面右端近傍に配置される。
 次に、上記のような左手用レイアウトにおける仮名文字入力について説明する。例えば人差指が子音ボタン群64の一つ(例えば「T」)にタッチされ、同時に親指が母音ボタン群66の一つ(例えば「u」)にタッチされていると判断されると、親指のタッチ位置60と人差指のタッチ位置62の絶対位置が検出され、それに応答して図4(A)のようにタッチが検知された子音ボタン「T」および母音ボタン「u」が太枠で表示される。これらの組み合わせはローマ字の「Tu」、すなわち仮名の「つ」を意味する。このようにして、親指以外の指による子音ボタンのいずれかおよび親指による母音ボタンの2点タッチにより任意の子音と母音の組合せを指定することができる。なお、「あ」行の仮名については、親指以外の指によるブランクボタン68へのタッチと親指による母音ボタンの2点タッチにより指定することができる。さらに「ん」の指定については、親指以外の指によるブランクボタン68へのタッチと親指による「n」ボタン70の2点タッチにより指定することができる。
 なお、上記の入力では濁音、半濁音、撥音、促音、拗音などの入力はできないが、行先入力は新規入力ではなく、元々地図上に登録されている地名などを検索するための情報なので、入力される文字列が増えることによってその配列からソフトウエアで推測することにより該当部分を濁音、半濁音、撥音、促音、拗音に自動修正する。なお、表示部12において「G」、「P」、「Ky」などの子音ボタンの数を増やせば、濁音、半濁音、撥音、促音、拗音を直接入力することも可能である。
 仮名入力においても、2点のタッチは完全に同時に行う必要はなく、まず人差指でまず子音ボタン群64またはブランクボタン68のいずれかにタッチしてから親指で母音ボタン群66または「n」ボタン70のいずれかにタッチしてもよいし、その逆でもよい。2点の組合せより指定された仮名の入力を確定させるためには、例えば、図4(A)のように子音ボタン群64の「T」ボタンおよび母音ボタン群66の「u」ボタンが太枠表示となっている状態において、人差指および親指のタッチを継続したまま黒矢印72で示すように親指を人差指に向かってスライドさせる。この親指の動きによって母音ボタン群66の「u」ボタンが子音ボタン群64の決定エリア34が行先メニュー24に向かってドラグされ、例えば所定以上両者が接近すると子音と母音の組合せによる仮名の入力が確定する。そして入力が新規確定した仮名は、入力ウインドウ74に「つ」のごとく確定済みの文字に続けて大文字で表示される。上記のような子音ボタンに母音ボタンをドラグしてくっつけることにより、仮名を確定させる操作は、仮名のローマ字書きに準じた感覚での操作となり、違和感が少ない。これは日本語のローマ字入力に適するが、類似した子音および母音の組合せ文字構造を持つハングル文字の入力にも適する。なお、ハングル文字の場合、パッチムの付加は文字の基本構成を入力したあと図4の「n」ボタン70または80のように母音ボタン群の列に配置されるパッチムボタンおよび子音ボタンの組合せを続けて追加指定することにより入力する。
 図4の行先入力用の表示画面には、さらに数字入力用のテンキーボタン76が表示部12の画面中央部近傍に表示される。このようなテンキーボタン76の配置は、子音ボタン群64を表示部12の画面上端近傍に配置するとともに母音ボタン群66を表示部12の画面右端近傍に配置し、画面中央部に空きスペースを確保したことにより可能となる。テンキーボタン76による数字入力は通常通りテンキーボタン76のいずれかをタッチする1点タッチにより行う。この場合、左手用レイアウト決定における任意位置の2点タッチのうちの1点目のタッチとの混同を避けるため、テンキーボタン76の1点タッチが検知されてから、所定時間(例えば1秒)待って、2点目が続けてタッチされないことを確認してから数字入力を確定する。逆に言えば、2点タッチを行う場合は、同時である必要はないものの、2点目のタッチを1点目のタッチから所定時間以内に続けて行うべきことがユーザに要請されることになる。このようにして、所定時間の設定により、1点タッチか2点タッチかの識別が行われる。
 図4(B)は、行先入力のための右手用レイアウトであり、図3(A)と同様にしてタッチされた2点を結んだ線が相対的に左下がりであることが検知されることにより表示される。図4(B)に示した右手用レイアウトでは、右手42の親指以外のタッチが予定される子音ボタン群64およびブランクボタン68が図4(A)と同様にして表示部12の画面上端近傍に配置される。このとき操作上の便宜のために図4(B)のようにその位置を若干右側にシフトしてレイアウトされる。しかしながら、子音の配置順自体は混乱を避けるため図4(A)と同様となっている。また、レイアウトの余裕があれば、子音ボタン群64およびブランクボタン68のレイアウトは図4(A)の左手用レイアウトと図4(B)の右手用レイアウトで全く共通としてもよい。
 これに対し、図4(B)における右手用レイアウトでは、右手42の親指のタッチが予定される母音ボタン群78および「n」ボタン80が、図4(A)の左手用レイアウトとは異なり、表示部12の画面左端近傍に配置される。但し、縦方向のボタンの配列自体は混乱を避けるため図4(A)と同じである。右手用レイアウトでは、このようなレイアウトにより、図3(A)と同様にして右手の自然な姿勢により仮名入力が行えるようにしている。図4(B)の右手用レイアウトにおける子音ボタンと母音ボタンの組合せによる仮名の指定および母音ボタンのドラグによる仮名入力の確定については図4(A)の左手用レイアウトの場合と同様なので説明は省略する。但し、入力ウインドウ82は手の影にならないよう、図4(B)では画面左寄りにシフトされている。なお、図4(B)の右手用レイアウトにおけるテンキーボタン76の配置は、図4(A)の左手用レイアウトにおけるものと共通である。
 図4による行先入力の結果、入力ウインドウ74または82に所望の行先が表示されたとき、入力ウインドウ74または82をタッチすると表示部12には自車位置を含む地図が表示され、ナビゲーションが開始される。なお、図2と同様にして制御部4は、右下がりの2点同時タッチ状態が検知されたときであっても車両が走行中の場合は図4(A)の左手用レイアウトを表示せず、代わりに「走行中は運転者によるメニュー変更操作禁止」の旨を表示部12上の表示またはスピーカ21のアナウンスにより運転者に告知する。
 図5から図9は、自車の位置84を含む地図86が表示部12に表示され、ナビゲーションが行われている状態における地図の拡大縮小操作を説明する画面図である。まず、図5は、走行中における左手操作と右手操作の違いを説明する画面図である。上記で説明したように右ハンドル車の場合、左手操作は運転者によって行われ、右手操作は助手席の同乗者によって行われる。この違いにより、本発明では右手操作と左手操作が異なるよう構成し、運転者に負担をかけないようにして危険を防止するとともに、助手席の同乗者からはその意図をより反映した操作が行えるよう構成している。
 図5(A)は、親指のタッチ位置88および人差指のタッチ位置90の2点を結んだ線が相対的に右下がりであることが検知されており、その結果として左手操作であることを認識する。この場合は、2点の絶対位置がどこにあるかにかかわらずその相対位置のみを情報として以後の処理を行うので、運転者に正確なタッチ位置を要求することなく、左手22の自然なタッチのみに基づいて処理が行われる。これに対し、図5(B)は、親指のタッチ位置92と人差指のタッチ位置94の2点を結んだ線が相対的に左下がりであることが検知されており、その結果として右手操作であることを認識する。この場合は、親指のタッチ位置92と人差指のタッチ位置94の2点の絶対位置を検知し、その2点を結ぶ線を対角線とする矩形領域96を認識して以後の処理を行うので、情報量が多くなる。そしてこの認識のため同乗者による右手操作の場合は、正確な2点のタッチを期待する。
 図6は、図5(B)のようにして地図86に矩形領域96が認識された場合、その領域を表示部12いっぱいに拡大する操作を示す画面図である。矩形領域96を拡大するためには、図6(A)に示すように、親指および人差指をそれぞれのタッチ位置92および94から黒矢印98および100で示すように互いに離間するようスライドさせ、その後、右手42を表示部12から離す。制御部4は、この動きを拡大操作として認識し、図6(A)の矩形領域96内の地図部分を図6(B)の地図102のように表示部12いっぱいに拡大する。このようにして、走行中の右手操作では、表示されている地図の所望の部分を切り取って表示部12いっぱいに拡大することができる。
 図7は、図6の経過を経て地図が拡大された履歴がある場合において、その地図102を所望の点を中心に所定の縮小率にて広域側に縮小する操作を示す画面図である。つまり、それ以前に右手42により操作された履歴がある場合がこの縮小操作に該当する。図7(A)は、右手42の人差指のタッチ点104を検知することにより、縮小後の地図の中心位置106を決定する。この場合は1点タッチとなるので、2点タッチの1点目タッチと区別するため所定時間(例えば1秒)待って、その後2点目のタッチがないと1点タッチと認識する。そして中心位置106が決定されたあと右手42を表示部12から離すと、図7(B)に示すように中心位置106が地図の中央に来るように縮小地図108が表示される。このときの縮小率は1点タッチが行われる毎に所定率で縮小が行われるのでさらに縮小したい場合は、人差指による1点タッチを繰り返すことになる。それらの操作の途中で拡大の中心点を変更するのは任意である。
 なお、図6および図7は、左下がりの2点タッチが検知された場合の右手操作として説明したが、車両が停止している場合は、右下がりの2点タッチが検知された場合においても、図5(B)のような矩形領域の設定が行われる。これは、運転中でない場合、危険なしに運転者に正確な操作を要求してもよいからであり、運転者は車両を停止させることによって、地図における所望の領域の拡大および所望の1点を中心とする地図の縮小を行うことができる。
 図8は、図5(A)のようにして、2点の絶対位置がどこにあるかにかかわらず、親指のタッチ位置88および人差指のタッチ位置90の2点を結んだ線が相対的に右下がりであることだけを検知する場合において、地図の拡大操作を行う際の画面図である。この状態において地図を拡大するためには、図8(A)のように親指および人差指をそれぞれのタッチ位置88および90から白矢印110および112で示すように互いに離間するようスライドさせ、その後、左手22を表示部12から離す。制御部4は、この動きを拡大操作として認識し、図8(B)に示すように地図の中心部を固定して所定倍率で拡大した地図114を表示部12に表示する。このようにして、走行中の左手操作では、地図の位置の指定なしに、拡大操作が行われたことのみを検知して地図の中心を固定して拡大を行う。また、拡大率の指定もないので、地図は一回の拡大操作を検知する毎に所定率で拡大される。従ってさらに拡大したい場合は、2点タッチ位置の離間操作を繰り返すことになる。
 図9は、図5(A)のようにして、2点の絶対位置がどこにあるかにかかわらず、親指のタッチ位置88および人差指のタッチ位置90の2点を結んだ線が相対的に右下がりであることだけを検知する場合において、図8とは逆に地図の縮小操作を行う際の画面図である。この状態において地図114を縮小するためには、図9(A)のように親指および人差指をそれぞれのタッチ位置116および118から白矢印120および122で示すように互いに接近するようスライドさせ、その後、左手22を表示部12から離す。制御部4は、この動きを縮小操作として認識し、図9(B)に示すように地図の中心部を固定して所定倍率で縮小した地図124を表示部12に表示する。このようにして、走行中の左手操作では、縮小操作の場合に縮小を行う。縮小率についても指定はなく、地図は一回の縮小操作を検知する毎に所定率で縮小される。従ってさらに縮小したい場合は、2点タッチ位置の接近操作を繰り返すことになる。
 図10は、図1の実施例1における制御部4の動作のフローチャートである。入出力部20から車両のエンジン(または電気自動車の場合は「モーター」、以下「エンジン」で代表)がオンとなったことが伝えられるとフローがスタートし、ステップS2において表示すべき地図の初期縮尺が設定される。この初期縮尺は前回エンジンがオフになったときのものを記憶しておいてこれを採用してもよいし、毎回エンジンがオンになるたびに所定縮尺を採用するようにしてもよい。次いで、ステップS4でGPS部14からの自車位置を示すGPS情報が取得されるとともに、ステップS6に至って自車位置を中心とする地図がステップS2で設定された倍率にて表示部12に表示される。
 次いで、ステップS8では、操作部6によってメニュー表示を求める操作が行われたかどうかチェックする。ステップS8でメニュー表示操作が行われたことが検知されるとステップS10のメニュー選択処理に進む。これは、図2および図3で説明した操作を実行する処理であるがその詳細は後述する。メニュー選択処理が完了すると、ステップS12では、メニュー選択が確定したかどうかチェックし、確定していればステップS14に進んで行先入力メニューが選択されたかどうかチェックする。そして行先入力メニューの選択が確認された場合はステップS16の行先入力処理を実行し、その結果に基づいてステップS18の地図表示に移行する。行先入力処理の詳細は後述する。
 一方、ステップS14で行先入力メニューの選択でないと判断されるとステップS20に進み、オーディオ処理またはエアコン処理等の他メニューの処理を行ってステップS18の地図表示に移行する。またステップS12でメニュー選択の確定が確認されない場合は、直ちにステップS18の地図表示に移行する。
 ステップS18で地図が表示されるとステップS22で地図へのタッチが検知されたかどうかチェックする。また、ステップS8でメニュー表示操作が検知されない時はステップS6の地図表示を継続してステップS22の地図タッチ検知に移行する。ステップS22で地図タッチが検知されるとステップS24の地図タッチ処理に入る。その詳細は後述する。地図タッチ処理が完了すると、ステップS26に移行する。一方、ステップS22で地図タッチが検知されない時は直接ステップS26に移行する。ステップS26では、でエンジンがオフになったかどうかチェックし、エンジンオフが検知されないときはステップS4に戻る。以下、ステップS26でエンジンオフが検知されない限り、ステップS2からステップS26を繰り返し、各操作が検知されないときはステップS4で取得されるGPS情報を更新しながら地図表示を継続してナビゲーションを行うとともに、各操作が行われたときはそれに対応する。一方、ステップS26でエンジンオフが検知された時はフローを終了する。
 図11は、図10のステップS10におけるメニュー選択処理の詳細を示すフローチャートであり、フローがスタートするとまずステップS32で右ハンドル車であるかどうかチェックする。右ハンドル車でなければステップS34で以下の処理における「右」、「左」をそれぞれ「左」、「右」に逆転させて読替え処理する旨の処理を行ってステップS36に移行する。一方、右ハンドル車であることが確認された場合は直接ステップS36に移行する。これらの左右逆転処理は、カーナビ装置2が車両に設置された時に必要となるもので、右ハンドル車であるか左ハンドル車であるかの情報は無線通信部18または入出力部20による車両との情報交換によって取得する。左右逆転読替えを行うかどうかの判断は、カーナビ装置2が一度車両に設置されたあとは答えが同じになるが、カーナビ装置2が持ち出し可能なポータブルのもので、その後右ハンドル車にも左ハンドル車にも持ち込まれる可能性がある場合は、処理の混乱による事故を自動的に避ける意義のあるものである。
 ステップS36以降は、ステップS34における左右逆転読替えが行われない場合の右ハンドル車の場合についての処理を示す。まず、ステップS36では、右手レイアウトの表示が行われるとともに所定時間のカウントが開始される。そしてステップS38で右手レイアウト表示後所定時間が経過したかどうかのチェックが行われ、所定時間経過がなければステップS40で2点同時タッチ状態が検知されるかどうかチェックする。2点同時タッチ状態が検知されるとステップS42に移行し、検知された2点が右下がりかどうかチェックする。そして、右下がり2点であることが検知されると、運転者による左手操作がなされたものと看做し、ステップS44に進んで走行中かどうかチェックする。そして走行中でないことが確認されるとステップS46に進み、右手レイアウト表示に代えて左手レイアウト表示を行い、運転者による左手操作を可能としてステップS48に移行する。
 一方ステップS44で走行中であることが検知されるとステップS50に進み、走行中は運転者によるメニュー選択操作は禁止されていることを告知し、ステップS52で右手レイアウト表示を行ってステップS48に移行する。なお、ステップS52は左手レイアウト表示がなされている場合にステップS52に至った時にこれに代えて右手レイアウト表示をおこなうためのものであり、はじめから右手レイアウトが表示されている時はステップS52では何も行わず、右手レイアウト表示を継続する。なお、ステップS42において検知された2点が右下がりであることが検知されない場合は左下がりの2点が検知されたことに相当し、これは助手席の同乗者による右手操作であることを意味するので、ステップS54で右手レイアウト表示を行ってステップS48に移行する。なお、ステップS54も左手レイアウト表示がなされている場合にステップS54に至った時にこれに代えて右手レイアウト表示をおこなうためのものであり、はじめから右手レイアウトが表示されている時はステップS54では何も行わず、右手レイアウトを継続してステップS48に移行する。
 ステップS48では、図2(A)または図3(A)のように、メニューの一つと決定エリア34または54の両者へのタッチが検知されたかどうかチェックし、検知があればその検知情報に基づいてステップS56でその2点を更新記憶するとともに2点に対応するエリアを太枠表示する。なお、タッチ位置に変更がなく検知された2点の記憶に変更がなければ同じ情報が上書き更新され、太枠表示されるエリアも変わらない。そしてステップS58に進み、ステップS36で開始された所定時間カウントをリセットし、改めて時間カウントをスタートさせ、ステップS60に移行する。
 ステップS60では、図2(A)の黒矢印40または図3(A)の黒矢印58で示すような決定エリア34または54のメニューへの接近ドラグが行われたかどうかチェックする。そして接近ドラグが検知されるとステップS62に進み、メニュー選択を確定してフローを終了する。また、ステップS38で所定時間の経過が検知されたときは直ちにフローを終了する。一方、ステップS60で接近ドラグが検知されなかったときはステップS38に戻り、以下、ステップS60で接近ドラグが検知されるかステップS38で所定時間の経過が検知されない限り、ステップS38からステップS60を繰り返し、走行と停止の状況変化やメニューへのタッチ変更に対応する。なお、ステップS40で2点の同時タッチ状態が検知されないとき、またはステップS54でメニューの一つと決定エリア34または54との2点タッチを検知されないときは、ステップS38に戻る。
 なお、図11のフローにおいてステップS60での接近ドラグの検知をもってメニュー選択を確定しているのは、誤って2点タッチしたとしても直ちにメニュー選択を確定せず、もうワンステップの確認操作を入れる安全策を意味する。しかし、このような安全策よりも操作をシンプルにすることを優先する場合は、ステップS58およびステップS60を省略し、ステップS48でメニューの一つと決定エリア34または54との2点タッチが検知されてステップS54からステップ56に移行した後、直ちにステップS62に進み、メニュー選択を確定するよう構成してもよい。このように構成した場合は、図2(A)または図3(A)において、メニューの一つと決定エリア34または54の両者へのタッチが検知され、タッチされた領域が太枠のように変わった時点でメニュー選択が確定する。
 図12は、図10のステップS16における行先入力処理の詳細を示すフローチャートであり、フローがスタートするとまずステップS72で左右逆転処理を行う。これは、図11のステップS32およびステップS34と同じものである。ステップS72の左右逆転処理が終わるとフローはステップS74以下に進む。図11と同様にして、ステップS74以下では、左右逆転処理において左右逆転読替えが行われない場合の右ハンドル車の場合についての処理を示す。
 まず、ステップS74では、右手レイアウトの表示が行われるとともに所定時間のカウントが開始される。そしてステップS76で右手レイアウト表示後、所定時間が経過したかどうかのチェックが行われ、所定時間経過がなければステップS78で1点タッチが検知されるかどうかチェックする。そして、1点タッチ状態が検知されるとステップS80に移行し、所定の識別時間が経過したかどうかチェックする。この識別時間は、2点タッチが厳密に同時には行われないことを前提とし、ステップS78で検知された1点タッチが、2点タッチを意図している場合の1点目タッチか、それとも意図しての1点タッチかを識別するためのものである。そして、ステップS80で識別時間が経過したことが検知されない場合はステップS82に進み、2点同時タッチ状態の検知の有無をチェックする。この検知ができない場合はステップS80に戻り、以下、識別時間が経過するか2点同時タッチ状態が検知されるかしない限りステップS80およびステップS82を繰り返す。
 ステップS82で2点同時タッチ状態が検知されるとステップS84の左右レイアウト切換処理に入る。この処理は、図11のステップS42からステップS46およびステップS50からステップS54と同じ処理であり、右手レイアウトと左手レイアウトの切換および走行中の左手レイアウトを禁止するためのものである。そしてステップS84の左右レイアウト切換処理が終わるとステップS86に移行する。
 ステップS86では、図4のように、子音ボタン群64またはブランクボタン68の一つと母音ボタン群66(または78)または「n」ボタン70(または80)の一つの両者へのタッチが検知されたかどうかチェックし、検知があればその検知情報に基づいてステップS88でその2点を更新記憶するとともに2点に対応するエリアを太枠表示してステップS90に移行する。なお、図11のフローと同様、タッチ位置に変更がなく検知された2点の記憶に変更がなければ同じ情報が上書き更新され、太枠表示されるエリアも変わらない。
 ステップS90では、図4(A)の黒矢印72または図4(B)の黒矢印で示すような母音ボタン(または「N」ボタン)の子音ボタン(またはブランクボタン)への接近ドラグが行われたかどうかチェックする。そして接近ドラグが検知されるとステップS92に進み、一字分の仮名文字入力を確定記憶してステップS94に移行する。一方、ステップS80で識別時間の経過が検知された時は1点タッチであったと看做してステップS96に移行し、これが図4のテンキーボタン76の一つへのタッチであるかどうかチェックする。そしてテンキータッチであった場合はステップS98に進み、数字入力を確定してステップS94に移行する。このように数字入力については1点タッチと識別時間の経過のみで一文字分の数字入力を確定する。
 ステップS94で所定時間カウントをリセットし、改めてカウントをスタートさせてステップS100に移行する。ここでの所定時間リセットスタートは次の文字入力操作を待つ意義があるので、ステップS74でスタートさせた所定時間とは異なった文字入力待ちに好適な時間に設定することも可能である。なお、ステップS96でテンキーボタン76の一つへのタッチであることが検知できない場合は、意味のない1点タッチであったと看做して何も入力を確定せず直ちにステップS100に移行する。
 ステップS100では、ステップS92で新たに確定記憶した一文字分を含め、記憶されている仮名文字列から行先を推定可能かどうかチェックする。そして文字数が少なく推定ができないときはさらに文字を入力することを可能にするためステップS76に戻る。また、ステップS78で1点タッチが検知されないとき、またはステップS86で子音ボタン群等の一つと母音ボタン群等の一つの両者へのタッチが検知されなかったとき、またはステップS90で所定時間内の母音ボタンドラグが検知できなかったときもステップS76に戻る。以下、ステップS100で行先が推定可能であると判断されるかまたはステップS76で所定時間の経過が検知されるかしない限り、ステップS76からステップS100を繰り返し、新たな文字入力を可能とするとともに走行と停止の状況変化や右手/左手レイアウト変更に対応する。
 一方、ステップS100において行先推定が可能と判断されたときはステップS102に進み、入力された文字列に基づいて行先を推定しフローを終了する。なお、ステップS76で所定時間の経過が検知されたときは直ちにフローを終了する。なお、図12のフローにおいてステップS90での接近ドラグの検知をもって仮名入力を確定しているのは、図11の場合と同様、誤って2点タッチしたとしても直ちに仮名入力を確定せず、もうワンステップの確認操作を入れる安全策を意味する。しかし、このような安全策よりも操作をシンプルにすることを優先する場合は、図11の場合と同様、ステップS90を省略し、ステップS86で子音ボタン群等の一つと母音ボタン群等の一つの2点タッチが検知されれば直ちにステップS92に進み、仮名入力を確定するよう構成してもよい。このように構成した場合は、図4において、子音ボタン群等の一つと母音ボタン群等の一つの2点タッチが検知され、タッチされた領域が太枠のように変わった時点でメニュー選択が確定する。
 図13は、図10のステップS24における地図タッチ処理の詳細を示すフローチャートであり、フローがスタートするとまずステップS112で左右逆転処理を行う。これは、図12のステップS72と同様、図11のステップS32およびステップS34と同じものである。ステップS112の左右逆転処理が終わるとフローはステップS114以下に進む。図11および図12と同様にして、ステップS114以下では、左右逆転処理において左右逆転読替えが行われない場合の右ハンドル車の場合についての処理を示す。
 まず、ステップS114では、図10のステップS22で地図タッチが検知されてから所定時間内に2点同時タッチ状態が検知されるかどうかチェックする。2点同時タッチ状態が検知されるとステップ116に移行し、検知された2点が右下がりかどうかチェックする。そして、右下がり2点であることが検知されると、運転者による左手操作がなされたものと看做し、ステップS118に進んで走行中かどうかチェックする。そして走行中であることが検知されるとステップS120に移行する。
 ステップS120からステップS126は、図8および図9の操作に該当するものである。まずステップS120では、ステップS114で2点同時タッチ状態が検知されてから所定時間内にその2点が相対的に接近するドラグが行われたかどうかチェックする。そして接近ドラグが検知されるとステップS122に進み、表示されている地図の中心を固定して所定比率で地図を縮小し、ステップS124に移行する。これは、図9の操作に該当する。一方、ステップS120において所定時間内の接近ドラグが検知できなかったときは、直接ステップS124に移行する。
 ステップS124では、ステップS114で2点同時タッチ状態が検知されてから所定時間内にその2点が相対的に離間するドラグが行われたかどうかチェックする。そして離間ドラグが検知されるとステップS126に進み、表示されている地図の中心を固定して所定比率で地図を拡大し、フローを終了する。これは、図8の操作に該当する。一方、ステップS124において所定時間内の離間ドラグが検知できなかったときは、直ちにフローを終了する。この場合は地図の縮尺に変化は生じない。なお、図13においては、ステップS120およびステップS122の位置とステップS124およびステップS126の位置を差替えてもよい。
 一方、ステップS116で右下がり2点が検知されなかったときは、検知された2点が左下がりであることを意味するのでステップS128に移行し、検知された2点の絶対位置が決定する領域を記憶する。これは、図5(B)における操作の状態に該当する。次いでステップS130において所定時間が経過したかどうかチェックし、経過が検知されない場合はステップS132に進んで検知された2点を相対的に離間するドラグが行われたかどうかチェックする。そして離間ドラグが検知されなければステップS130に戻り、以下、ステップS130とステップS132を繰り返して所定時間内の2点離間ドラグを待つ。そしてステップS132で2点離間ドラグが検知されるとステップS134に進み、ステップS128で決定記憶された領域内の地図を表示部12いっぱいに拡大し、フローを終了する。これは、図6の操作の状態に該当する。一方、ステップS130で所定時間経過が検知された時は直ちにフローを終了する。この場合は地図の拡大は行われない。
 また、ステップS114において、図10のステップS22で地図タッチが検知されてから所定時間内の2点同時タッチ状態が検知されないときは、図10のステップS22で1点タッチが検知されたことを意味するから、ステップS136に移行する。ステップS136では、図10のステップS22で地図タッチが検知される直前に2点タッチ位置で決定された領域内の地図が拡大された履歴があるかどうかチェックする。そしてこのような履歴があればステップS138に進み、図10のステップS22で検知されたタッチ位置を中心に地図を所定比率で縮小してフローを終了する。これは、図7の操作に該当する。一方、ステップS136で拡大履歴が検知されない場合は直ちにフローを終了する。この場合は地図の拡大は行われない。
 上記実施例1に示した種々の特徴は、その具体的な実施に限るものではなく、開示した利点を享受できる限り種々の実施において活用可能である。例えば、上記実施例1では右手用レイアウトと左手レイアウトの切換を走行中かどうかの検知と関連づけており、これは、走行中であっても比較的危険の少ない一定の操作を運転者に許すとともに、助手席の同乗者からは走行中であっても複雑な操作や正確さを要する操作を可能とするものであって、一律に走行中の操作を制限する場合よりもフレキシブルな操作を可能とする点で有用である。また、実施例1では、運転者による操作であるか同乗者による操作であるかを右下がり2点が検知されるか左下がり2点が検知されるかによって判断しており、この構成は運転者か同乗者かを識別する他の手段を要しない点で有用である。しかしながら、右手用レイアウトを運転者が無理な姿勢で操作することによる事故を絶対に防止することを重視する場合は、運転者か同乗者かを識別する赤外線検知等を別途設け、これによって右手用レイアウトと左手用レイアウトを切り換えるよう構成してもよい。また、構成を簡単にしてカーナビ操作による事故を防止することを優先する場合は、右手用レイアウトであるか左手用レイアウトであるかにかかわらず、走行中の複雑な操作を禁止するように構成してもよい。以上いずれの場合においても、手の構造に合わせた右手用レイアウトと左手用レイアウトの切り換えは、手による2点操作を容易にする上で有用である。
 また、上記実施例1はカーナビにおける実施を示したが、開示された種々の特徴のいくつかはカーナビにおける実施に限るものではなく、開示した利点を享受できる限り種々の機器において実施可能である。例えば、デジタルスチルカメラやデジタルムービーカメラにおけるタッチパネル表示部、携帯電話などのモバイル機器におけるタッチパネル表示部において広く活用が可能である。さらには、上記において開示された右手による2点タッチ操作と左手による2点タッチ操作の切り換えなど種々の特徴のいくつかは表示機能を有さないタッチパネルにおいても活用可能なものである。
<実施例2>
 図14は、本発明の実施の形態に係るタッチパネル入力装置の実施例2を示すブロック図である。実施例2はデジタルカメラ202を構成しており、装置全体を制御するコンピュータからなる制御部204を有し、デジタルカメラ操作者による操作部206の操作に応じて、デジタルカメラ202を制御する。この制御部204の機能は記憶部208に格納されたソフトウエアによって実行される。記憶部208は、またデジタルカメラ202の制御に必要な種々のデータを一時的に格納する。また、制御部204は表示ドライバ210を介して抵抗膜式タッチパネル表示部212の表示を制御し、操作部206の操作に必要なGUI表示を行うとともに制御結果の表示を行う。
 抵抗膜式タッチパネル表示部212は表示部であるとともにタッチパネル入力装置となっていて、表示に直接タッチすることにより入力操作を行うGUI操作部となっている。また、抵抗膜式タッチパネル表示部212の構成は図1の実施例1と同様のものであり、制御部204は抵抗膜式タッチパネル表示部212の4線の出力を分析処理することにより、2点のタッチ位置およびその移動を検知することが可能である。
 実施例2において実施例1の説明を準用して理解できる部分は10の位および1の位の数字が共通の200番台の番号を付して原則として説明を省略するとともに、以下デジタルカメラ特有の構成について説明する。まず、撮影モードにおいて、デジタルカメラ202は、焦点調節可能な光学系252によって結像する光学像を撮像部254によって電子画像に変換し、制御部204の画像処理部256によって圧縮を含む画像処理を行って画像記憶部258に格納する。画像記憶部258はデジタルカメラ202内蔵の画像メモリまたはデジタルカメラ202に着脱可能なメモリカードとして構成される。
 上記の撮影モードにおいて、撮像部254によって撮像された画像は表示ドライバ210によって抵抗膜式タッチパネル表示部212に表示される。つまり、このような撮像モードにおいては、抵抗膜式タッチパネル表示部212は、撮像の構図決めのために被写体像を表示するファインダースクリーンの機能を果たす。このとき、抵抗膜式タッチパネル表示部212に表示される被写体像の所望部分を例えば親指でタッチすることによりタッチ位置が記憶され、記憶された位置に対応する被写体部分に対しフォーカス機構260によりオートフォーカスが行われる。オートフォーカスの焦点調節判断は画像処理部256の情報に基づき制御部204が行う。また、記憶されたタッチ位置に対応する被写体部分を基準に露出制御部262が光学系252の絞りおよび撮像部254の露出時間およびゲインを制御することで露出制御を行う。露出制御の判断も、画像処理部256の情報に基づき制御部204が行う。
 なお、抵抗膜式タッチパネル表示部212から親指を一度離すとタッチ位置の記憶がキャンセルされ次にタッチした位置が新たに記憶される。このようにタッチが継続する限り最初にタッチした位置を記憶することにより、タッチを継続する際に指が抵抗膜式タッチパネル表示部212上でずれることによりタッチ位置が所望の位置から不用意に変化することを防止できる。そしてタッチを継続しながら例えば人差指で抵抗膜式タッチパネル表示部212の任意の位置をタッチするとシャッタレリーズが行われ、撮影が完了する。
 撮影モードによって画像記憶部258に記憶された画像は、再生モードの設定により、抵抗膜式タッチパネル表示部212に再生表示することができる。このような再生画像については、拡大縮小が可能であり、その操作は実施例1において説明した操作を準用することができる。
 ここで、上記において説明を省略した図14の構成について、若干の補足を行うと、まず、GPS部214の情報は、撮影場所情報として画像とともに画像記憶部258に記憶される。また、スピーカ221は、デジタルカメラ202の操作案内に利用される。さらに、入出力部220および無線通信部218は、画像記憶部258に格納されている画像をデジタルカメラ202外部に送信するときに利用することができる。
 図15は、実施例2に示したデジタルカメラ202の撮影モードにおいて抵抗膜式タッチパネル表示部212に表示される被写体画像を示す画面図である。図15(A)は、右手264の親指で抵抗膜式タッチパネル表示部212の所望の位置をタッチした状態を示し、このタッチに応答してタッチ位置表示266が行われている。このタッチ位置表示266はタッチされた位置を示すとともにタッチ位置が記憶されたことを示している。このような親指による1点タッチ状態で親指の位置がずれてもタッチ位置表示266が動くことはない。また、親指を抵抗膜式タッチパネル表示部212から離すとタッチ位置記憶がキャンセルされ、タッチ位置表示266が消えるので新たなタッチで記憶位置を設定することが可能である。
 撮影前の構図決めにおいては、デジタルカメラ202がぶれると抵抗膜式タッチパネル表示部212に表示される被写体像も動く。このとき、画像と記憶されたタッチ位置の両者がともに動くと基準がなくなって画像の所望位置の指定がし難くなるが、上記のようにして最初のタッチ位置を記憶固定することにより、仮にその後画像が動いても、デジタルカメラ202を動かすことで容易にタッチ位置と当初の画像の所望位置を元通りに合わせることができる。
 図15(B)は、右手264の親指のタッチを継続したまま抵抗膜式タッチパネル表示部212の任意の位置268をタッチした状態を示しており、制御部204はこのような2点タッチ状態の成立によりシャッタレリーズ操作が行われたものと判断してその状態における撮像部254の画像情報を画像処理部256で処理して画像記憶部258に記憶格納させる。
 なお、実施例2では、シャッタレリーズボタン位置が抵抗膜式タッチパネル表示部212の任意の位置となるので、構図決めに専念でき、操作が簡単になる。しかしながら2点目のタッチによってシャッタレリーズを行う構成はこれに限られるものではなく、例えば図15(B)の位置268のように操作しやすい位置にシャッタボタンを表示するよう構成してもよい。このようなシャッタボタン位置表示は、最初のタッチ位置266の記憶が行われたのと同時に行う。このような構成によれば、任意位置の2点目タッチによりシャッタレリーズを行うことができないが、その反面、表示されたシャッタボタン位置以外を不用意にタッチすることで誤ってシャッタレリーズが行われるのを防止することができる。実施例2は、デジタルカメラ202の使用者のカスタム設定により、このようなシャッタレリーズボタン表示モードも選択できるよう構成してもよい。
 図16は、図14の実施例2における制御部204の動作のフローチャートである。デジタルカメラ202の電源オン操作が行われるとフローがスタートし、ステップS142においてデジタルカメラの立上処理が行われ、ステップS144で初期状態として撮影モードを設定してステップS146に移行する。ステップS146では再生モード設定の手動操作が行われたかどうかチェックし操作がなければステップS148に進む。
 ステップS148では、1点タッチが検知されるかどうかチェックする。そして1点タッチ状態が検知されるとステップS150に移行し、タッチが検知された位置を記憶する。一方、ステップS148で1点タッチが検知されない時はステップS146に進み、以下ステップS146とステップS148を繰り返して再生モード設定操作が行われない限り1点タッチの検知を待つ。ステップS150で検知位置が記憶されるとステップS152に進んで記憶位置を表示する。この表示は、図15(A)のタッチ位置表示266に該当する。
 さらにステップS154では、記憶位置に撮像されている被写体部分に対する画像処理部256の情報に基づき制御部204がフォーカス機構260に指示を出して光学系252を駆動し、この部分のコントラストが最大になるようフォーカス調整を行う。この結果、図15(A)のタッチ位置表示266の部分の被写体にピントが合う状態となる。フォーカス指示のあとステップS156では、記憶位置に撮像されている被写体部分に対する画像処理部256の情報に基づき制御部204が露出制御部262に指示を出して光学系252の絞りおよび撮像部254の露出時間を制御する。この結果、図15(A)のタッチ位置表示266の部分の被写体が適正露出となる状態に露出制御が行われる。
 次いで、ステップS158では、ステップS148で1点タッチが検知されてから所定時間が経過したかどうかチェックする。この所定時間は例えば2秒程度であり、1点目タッチにより関心のある被写体部分を決定してから2点目タッチ検知によるシャッタレリーズを待つための時間として設定される。後述のように、この所定時間内に2点目タッチが検知されない場合は1点目タッチの記憶がキャンセルされる。
 ステップS158で所定時間経過が検知されないときはステップS160に進んで1点タッチが解除されたかどうかチェックする。1点タッチ解除が検知されない場合は、ステップS162に進み、1点目タッチを継続して2点目をタッチした結果として2点同時タッチ状態が生じたかどうかチェックする。そして、2点同時タッチ状態が検知されるとステップS164に進んでシャッタレリーズが行われ、ステップS166の撮像処理に移行する。一方、ステップS162で2点同時タッチ状態が検知されない場合はステップS158に戻り、以下、所定時間が経過するか1点タッチが解除されるかしない限りステップS158からステップS162を繰り返して2点目タッチを待つ。
 ステップS166の撮像処理は画像処理部256によって画像圧縮を行うとともに圧縮画像を画像記憶部258に記憶する処理である。撮像処理では、並行して記憶対象となる画像が所定時間にわたり抵抗膜式タッチパネル表示部212に静止画として表示される。ステップS166の撮像処理が終了するとステップS168に進み、デジタルカメラ202の電源オフ操作が行われたかどうかチェックする。そして、電源オフ操作が検知されたときはフローを終了する。
 一方、ステップS158で所定時間経過が検知されたとき、またはステップS160で1点タッチ解除が検知されたときはステップS170に移行し、1点タッチの記憶をキャンセルするとともにステップS172で図15(A)に示すようなタッチ位置表示266をキャンセルしステップS168に移行する。このようなステップS170およびステップS172の機能により、新たな1点目タッチ位置の決定に入ることができる。
 一方、ステップS146において再生モード設定操作が検知されたときはステップS174に移行して再生モード処理が行われる。再生モード処理では、最新画像等から始まる所定の順序による画像送りによる全画面再生、サムネイル画像による画像選択、スライドショー表示などが可能である。また、再生モード処理では定期的にステップS176に移行して撮影モード設定操作の有無をチェックし、操作がなければステップS174に戻って再生モードを継続する。ステップS176で撮影モード設定操作が検知されるとステップS178で撮影モードを設定してステップS168に進む。
 前述のように、ステップS168で電源オフ操作が検知されるとフローは終了となるが、電源オフ操作の検知がない場合はステップS146に戻る。以下、ステップS168で電源オフ操作が検知されない限りステップS146からステップS168を繰り返し、基本的には撮影モードの種々の操作に対応するとともに適宜再生モードへの移行操作および撮影モードへの復帰操作に対応する。
 以上説明した図16のフローから明らかなように、実施例2では、検知されるタッチが1点目か2点目かを識別し、それぞれに応答する機能が変えられる。その具体例として、1点目タッチにより画面位置の指定機能が応答し、2点目タッチによりシャッタレリーズ機能が応答するものを示した。しかし本発明のこの特徴は画面位置指定機能とシャッタレリーズ機能への使い分けに限るものではなく、種々の異なった機能に1点目タッチと2点目タッチ検知を割り当てることが可能である。
 なお、図16のフローでは、1点目タッチ位置が記憶された後にデジタルカメラ202を振ると、記憶された画面上のタッチ位置の部分に表示される画像も移動することになる。従って、フォーカス調節および露出調節の対象となる被写体部分も変化する。従って、デジタルカメラ202を振って図15(A)のタッチ位置表示266に所望被写体を合わせることでその被写体部分に対するフォーカス調節および露出調節を行うことができる。これに対し、実施例2ではフォーカスロックおよび露出調節ロックモードも可能であって、このようなロックモードが選択された時は、タッチ位置の記憶およびタッチ位置表示266の表示とともにタッチ位置記憶時点の撮像部254の該当被写体部分の画像データも記憶され、その記憶画像データに基づいてフォーカス調節および露出調節が行われる。従ってこのようなロックモードでは、1点目タッチ後にデジタルカメラ202を振っても、1点目タッチ時にタッチ位置にあった被写体部分へのフォーカス調節および露出調節状態を維持することができる。
 上記のロックモードを実施する場合を図16で説明すると、ステップS152とステップS154の間にロックモード設定の有無をチェックするステップが挿入され、ロックモード設定が検知されるとタッチ位置検知時点の該当部分の画像データを記憶するステップを経てステップS154に移行する。従ってこの場合、ステップS154およびステップS156は、リアルタイムで撮像部254から取得される記憶タッチ位置に該当する被写体部分データではなく、上記のようにして記憶された被写体部分データに基づいて行われることになる。また、ロックモードにおいてステップS170に進んだときはステップS172の後に被写体画像データの記憶もキャンセルしてステップS168に移行する。
<実施例3>
 次に本発明の実施の形態に係るタッチパネル入力装置の実施例3について説明する。実施例3は車両のカーナビ装置に関するもので、その構成の大半は実施例1と共通である。従って、基本的には図1から図13を流用するとともに同一部分については同じ番号を流用し、異なるところについてのみ説明する。実施例3は、実施例1と同様にして、運転中の運転者による操作の際、タッチした2点の絶対位置がどこにあるかにかかわらず、2点結んだ線が相対的に右下がりであることだけを検知して、危険のない簡単なタッチ位置移動で地図の拡大操作を行うことができるよう構成される。しかしながら実施例1では図8および図9のように2点間の距離が離間するか接近するかによって拡大または縮小を決定していたのに対し、実施例3は別の操作方法により拡大縮小を行うよう構成される。他の点に関しては、実施例3は実施例1と共通なので説明は省略する。
 図17は、上記のような実施例3において、図5(A)のような左手操作検知状態から、2点の絶対位置がどこにあるかにかかわらず運転中の運転者による危険のない操作によって地図の拡大を行う際の画面図である。但し、図17では、タッチ位置の間隔を広く取るために親指と中指で2点タッチを行ったものとして説明する。なお、言うまでもないが、検知はタッチの位置が問題なのであって、自然なタッチが行えるならどの指で操作するかは任意である。図17(A)では、左手302の親指および中指でそれぞれのタッチ位置304および306にてタッチし、そこから白矢印308および310で示すように指の間隔は基本的には変えないまま平行移動的にスライドさせ、その後、左手302を表示部12から離した状態を示す。このとき、制御部4は、タッチされた2点の間隔312が基準間隔314より大きいかどうか判断する。
 図17(A)の場合は、タッチされた2点の間隔312の方が基準間隔314より大きいのでその判断および白矢印308および310の平行移動的スライドがあったことをもって拡大操作と認識し、図17(B)に示すように地図の中心部を固定して図17(A)から拡大した地図114を表示部12に表示する。このようにして、実施例3においても、走行中に左手操作を行った場合には、地図の位置の指定なしに、拡大操作が行われたことのみを検知して地図の中心を固定して拡大を行う。制御部4は、さらにタッチ後に平行移動を行って左手302を表示部12から離すまでの操作、つまり白矢印308および310で示すスライド軌跡についてスライド量およびスライド速度を判定し、両者の積に基づいて拡大率を決定する。このようにして、操作者はスライド量および速度を大まかに変えることにより、拡大率の調節を行うことができる。そして図17(B)では、このようにして決定された拡大率に従って拡大された拡大地図114が表示される。なお、拡大率が所望のものより小さかった時は、図17に示すような幅広の2点タッチと平行スライドを繰り返すことになる。また、拡大しすぎた場合は、以下に説明する操作によって地図を縮小することができる。
 図18は、実施例3において、図5(A)のような左手操作検知状態から、2点の絶対位置がどこにあるかにかかわらず運転中の運転者による危険のない操作によって地図の縮小を行う際の画面図である。図18では、間隔を狭めた親指と人差指で2点タッチを行ったものとして説明する。図18(A)では、左手302の親指および人差指でそれぞれのタッチ位置316および318にてタッチし、そこから白矢印320および322で示すように指の間隔は基本的には変えないまま平行移動的にスライドさせ、その後、左手302を表示部12から離した状態を示す。このとき、図17と同様にして制御部4は、タッチされた2点の間隔324が図17と同様の基準間隔314より大きいかどうか判断する。
 図18(A)の場合は、タッチされた2点の間隔324の方が基準間隔314より小さいのでその判断および白矢印320および322の平行移動的スライドがあったことをもって縮小操作と認識し、図18(B)に示すように地図の中心部を固定して図18(A)から縮小した地図124を表示部12に表示する。このようにして、実施例3においては、走行中に左手操作を行った場合、地図の位置の指定なしに縮小操作が行われたことのみを検知して地図の中心を固定して縮小を行う。制御部4は、図17の場合と同様にして、白矢印320および322で示すスライド軌跡についてスライド量およびスライド速度を判定し、両者の積に基づいて縮小率を決定する。このようにして、縮小の場合においても、操作者はスライド量および速度を大まかに変えることにより、縮小率の調節を行うことができる。そして図18(B)では、このようにして決定された縮小率に従って縮小された縮小地図124が表示される。なお、拡大の場合と同様、縮小率が所望のものより小さかった時は、図18に示すような幅狭の2点タッチと平行スライドを繰り返すことになる。また、縮小しすぎた場合は、図17の幅広2点タッチと平行スライドによって地図を拡大することができる。
 実施例3における図17(A)または図18(A)の基準間隔314は、幅広および幅狭の2点タッチを行う際において操作者によって操作しやすい指の間隔を元に、幅広か幅狭かの識別が適切に行える幅をトライアルアンドエラーによって予め設定しておくことができる。実施例3に示すように、本発明によれば、2点タッチにおいてタッチ位置間の幅を入力情報として利用することができる。また、2点タッチ状態を継続したタッチ位置変化を入力情報として利用することができる。
 図19は、実施例3の場合における図10のステップS24の地図タッチ処理の詳細を示すフローチャートである。その大部分は実施例1に関する図13と共通なので、共通するステップには共通のステップ番号を付し、必要のない限り、説明を省略する。具体的に述べると、図19においてステップS112からステップS118、ステップS136およびステップS138は図13と共通である。上記のように実施例3は、運転中の運転者による左手操作に関するものなので、図19においてステップS118で走行中であることが検知されたあとの処理が図13と異なることになる。そしてこの部分の処理が、図17および図18に示した操作に関連する。
 さて、図19において、ステップS118で走行中であることが検知されるとステップS182に進み、ステップS114で2点同時タッチ状態が検知されてから所定時間内にその2点がタッチを継続しながら平行スライドされたかどうかチェックする。そして平行スライドが検知されるとステップS184に進み、図17(A)の白矢印308、310または、図18(A)の白矢印320、322に該当するスライド量を判定する。さらにステップS186では、白矢印308、310または、白矢印320、322におけるスライド速度を判定する。
 次いでステップS188では、ステップS184で判定されたスライド量およびステップS186で判定されたスライド速度を掛け算しその積の値に基づいて地図の拡大率または縮小率を決定する。つまり、ステップS188で決定される拡大率または縮小率は、例えば、スライド量が同じでスライド速度が2倍のとき、またはスライド量が2倍でスライド速度が同じのとき、それぞれ2倍となる。また、例えばスライド量およびスライド速度がともに2倍のとき、ステップS188で判定される拡大率または縮小率は、4倍となる。以上のように、スライド量およびスライド速度はいずれもスライド状態の情報であり、ステップS188では、感覚的に丁寧なスライドを行うほど判定される拡大または縮小の度合いは少なく微妙な調節が行われ、感覚的に激しいスライドを行うほど大幅な拡大または縮小が行われることになる。
 ステップS188において拡大率または縮小率が決定されるとステップS190に進み、タッチされている2点間の距離が所定の基準以上かどうかがチェックされる。この所定基準は図17(A)または図18(A)の基準間隔214に該当する。そして、ステップS190において2点間距離が所定以上であることが確認されるとステップS192に進み、中心を固定するとともにステップS188で決定された拡大率に基づく地図の拡大を行ってフローを終了する。一方、ステップS190において2点間距離が所定以下であることが確認されるとステップS194に進み、中心を固定するとともにステップS188で決定された縮小率に基づく地図の縮小を行ってフローを終了する。
 図19のステップS196は、図13のステップS128からステップS134をまとめて2点決定領域内地図拡大処理として図示したものであり、その内容は図13と同じである。つまり、図19のステップS196は、図13と同様にして、ステップS116において左下がり2点タッチが検知されたこと(言い換えれば、右下がり2点タッチが検出されなかったこと)によって実行されるものであり、タッチされる2点の絶対位置に基づきその2点によって決定される領域内の地図を表示部12いっぱいに拡大し、フローを終了するものである。
 本発明の種々の特徴は上記の実施例に限らず広く活用可能である。例えば、実施例3では、図17および図18のように、タッチした2点の幅の判定および2点の平行移動的スライドにより情報を入力するよう構成している。これは、不用意に2点にタッチした際の誤入力を防止し、2点タッチの後のスライドを待って入力を実行するものであるが、迅速な入力を優先する場合は、2点タッチを検知した時点で直ちに入力を実行するよう構成してもよい。この場合、図19のフローにおいてステップS182からステップS188を省略し、ステップS118で走行中であることを検知した後、直ちにステップS190の2点間距離の判定に入るよう構成する。
<実施例4>
 図20は、本発明の実施の形態に係るタッチパネル入力装置の実施例4を示すブロック図である。実施例4はデジタルカメラ402を構成しているが、その内容の大半は図14の実施例2におけるデジタルカメラ202と同様のものである。従って、共通の部分には共通の番号を付して説明を省略する。また、構成は若干異なるが実施例2に準じて理解できる部分には10の位および1の位の数字が共通の400番台の番号を付し、必要に応じ下記に説明を追加する。なお、これら追加説明部分は特に実施例4のみに特有のものではなく、実施例2においてもこのような構成を有するよう構成することは任意である。
 なお、図14の実施例2でもそうであるが、図20の実施例4の抵抗膜式タッチパネル表示部212はデジタルカメラ402の背面のほぼ全域にわたって設けられている大型のものであり、光学系452を両手で構えて被写体に向けたとき、デジタルカメラ402の背面から被写体像を観察することができるとともに、デジタルカメラ402を保持している両手の親指で自然に抵抗膜式タッチパネル表示部212にタッチすることができる構成となっている。
 また、図20の実施例4では、光学系452がズームレンズ系となっており、制御部404の制御によりズーム機構470が光学系452のレンズ構成を駆動してその焦点距離を変えることにより光学ズームを行う。ズーミングは抵抗膜式タッチパネル表示部212へのタッチによって操作され、この操作に応じ、上記のような光学系452による光学ズームだけでなく画像処理部256による電子ズームも併用してズーミングが実行される。上記のように、ズーム操作は、デジタルカメラ402を両手で保持して被写体に向けて被写体を観察しながら、抵抗膜式タッチパネル表示部212上にくる両手の親指により自然に行うことができる。
 さらに、加速度センサ472は、デジタルカメラ402の姿勢変化を検出するとともに静止状態でも重力加速度を検知することが可能となっており、抵抗膜式タッチパネル表示部212におけるズーミング操作がデジタルカメラ402を縦に構えて行われたか横に構えて行われたかを検出する。抵抗膜式タッチパネル表示部212によるズーム操作については、以下に詳述する。
 図21は、実施例4のデジタルカメラ402を横にして両手で構えた状態において抵抗膜式タッチパネル表示部212に表示される被写体画像を示す画面図であり、ズームアップにより被写体像を拡大するときの様子を示している。具体的に説明すると、図21(A)は、デジタルカメラ402を両手で保持した際の右手の親指474および左手の親指476で抵抗膜式タッチパネル表示部212にタッチすることで拡大したい範囲478の左右の辺を指定し、その後タッチを継続したまま矢印480および矢印482に示すように両親指474及び476を外側にスライドさせてタッチしている2点間の水平距離を増加させる状態を示す。
 その後、スライド途中の任意の時点で抵抗膜式タッチパネル表示部212から両手親指474及び476を離すと、これに応答し、図21(A)の状態で指定されていた拡大範囲478が図21(B)のように抵抗膜式タッチパネル表示部212の画面一杯に拡大画像484として拡大表示される。ここで、デジタルカメラ402の裏面にタッチしたまま抵抗膜式タッチパネル表示部212の枠外に両親指474及び476を離間スライドさせた場合も抵抗膜式タッチパネル表示部212から両手親指474及び476を離したものと認識される。
 なお、図21(A)の両手親指474及び476による2点同時タッチ後に2点間水平距離の増加させるスライド操作は任意の速度で行ってよい。すなわち、図21(A)から図21(B)への拡大率は、専ら図21(A)での拡大範囲478の大きさに依存し、両手親指474及び476のスライド速度にかかわらず、拡大範囲478が抵抗膜式タッチパネル表示部212の画面一杯に拡大されるまで処理可能な最高速度にてズームアップが行われる。このとき光学ズームで対処できなければ、電子ズームも動員される。但し、拡大範囲478が小さすぎて、これを画面一杯拡大するズーム能力範囲を超える時は、可能な最大拡大を行った時点でズームアップは停止する。
 ところで、上記における図21(A)での拡大範囲478の指定はあくまで拡大率の目安であって、右手親指474および左手親指476で指定した絶対位置としての拡大範囲478(以下では、適宜、区画478と呼ぶ)そのものが図21(B)のように拡大されるわけではない。つまり、拡大は、区画478の絶対位置にかかわらずその左右辺の間の水平距離に基づいて同心的に行われる。これは光学ズームがその性質上画面中心について同心的に行われるためである。もともと右手親指474および左手親指476によって正確に画面中心部分を指定するのは困難であるが、これによって区画478の絶対位置にこだわらずに拡大率を感覚的に指定できる。従って、極端な場合、区画478が著しく左または右に偏っていたとしても、区画478の情報は、その左右辺の間の水平距離が拡大倍率算出の情報として採用されるのであって、区画478を切り取って図21(B)のように拡大するための絶対位置情報として採用されるわけではない。このように、本発明のズーム操作における区画指定情報は、画像の一部の切り出し情報とは意味が異なる。なお、電子ズームにあっては、指定した区画478の絶対位置に基づいてその部分を切り取り拡大することは可能であるが、上記のような光学ズームとの整合性のため、実施例4では電子ズームにおいても、区画478の指定情報を、画面切り出しのための絶対情報ではなく拡大倍率算出のための相対情報として取り扱うよう構成している。従って電子ズームの拡大も、区画478の絶対位置にかかわらず、算出された拡大率に従って同心的に行われる。
 図22は、図21と同様にして実施例4のデジタルカメラ402を横にして両手で構えた状態において抵抗膜式タッチパネル表示部212に表示される被写体画像を示す画面図であるが、ズームダウンにより被写体像を縮小するときの様子を示している。具体的に説明すると、図22(A)は、デジタルカメラを両手で保持した際の右手の親指474および左手の親指476で抵抗膜式タッチパネル表示部212にタッチし、その後タッチを継続したまま矢印486および矢印488に示すように両手親指474及び476を内側にスライドさせてタッチしている2点間の水平距離を減少させる状態を示す。
 その後、スライド途中の任意の時点で抵抗膜式タッチパネル表示部212から両手親指474及び476を離すと、これに応答し、図22(A)で画面一杯に表示されていた部分が図22(B)の対応部分490に縮小されるとともに撮影範囲がワイドになった画像が抵抗膜式タッチパネル表示部212に表示される。なお、縮小の際には、図22(B)における対応部分490の外側の画像が縮小前の図22(A)の状態では見えず、縮小指定を画面上の区画として指定することは直感的意義が薄い。そこで縮小の場合の縮小倍率は、図22(A)の矢印486および矢印488の移動量および移動早さの積によって決定する。例えば、移動量が同じで移動早さが2倍のときまたは移動量が2倍で移動早さが同じときはいずれも縮小倍率を2倍にするとともに両者がともに2倍のときは縮小倍率の4倍にする。これによって、直感的に両手親指474及び476の動きに連動した縮小倍率の指定を行うことができる。
 なお、上記のとおり実施例4では、操作者の直感に沿うよう、拡大倍率の指定にあたっては図21(A)のように拡大対象範囲を当初の指のタッチ位置によって画面内で指定することにより、また縮小倍率の指定に当たっては図22(A)のように指の動きの激しさ度合いによって指定を行うよう構成している。しかしながら、拡大縮小両者とも当初の指のタッチ位置によりその率を指定するか、または拡大縮小両者とも指の動きの激しさ度合いによって行うよう構成してもよい。いずれにしても、使用者は拡大率および縮小率の指定原理を知らなくても、直感的に両手親指をタッチ後離間または接近させることにより所望のズームを行うことができる。そしてズームが不足または過剰であれば逆の操作をしてこれを修正することができ、このような操作の習熟により適切な指の動きをつかむことが可能となる。
 図23は、実施例4のデジタルカメラ402を縦にして両手で構えた状態において抵抗膜式タッチパネル表示部212に表示される被写体画像を示す画面図である。この場合も矢印492および矢印494でそれぞれ示される右手親指474および左手親指476の水平方向の動きによる抵抗膜式タッチパネル表示部212上のタッチ2点間の水平距離の増減に応じズームアップおよびズームダウンが可能となる。このとき、図20の加速度センサ472による重力加速度検知により、抵抗膜式タッチパネル表示部212の短辺に平行な方向が水平方向であると判断される。このようにして、加速度センサ472による縦横方向検知によって、図21および図22では抵抗膜式タッチパネル表示部212の長辺に平行な2点間距離の変化が、図23では抵抗膜式タッチパネル表示部212の短辺に平行な2点間距離の変化が、それぞれズーム操作として検出される。図23における縦位置保持状態でのズームアップおよびズームダウンの詳細は、図21および図22における横位置保持状態での操作と同様なので説明を省略する。
 図24は、図20の実施例4における制御部404の動作のフローチャートである。図24のフローチャートは、図16における実施例2のデジタルカメラ202の制御部204の動作と同様の部分が多いので、共通するステップには同一のステップ番号を付して説明を省略するとともに、異なるステップを太字で明示する。
 実施例4では、図24に示すように、ステップS148で1点タッチが検知されたときステップS202に移行し、1点タッチ検知の後所定時間内に2点目がタッチされて2点同時タッチ状態が検知されたかどうかチェックする。この所定時間は極めて短時間(例えば0.5秒)に設定されており、操作者としては2点同時タッチを意図したものに多少のずれがあってもこの所定時間内に収まり、それが2点同時タッチとして認識されるよう設計されている。つまり、操作者が意図して1点目タッチの後に2点目をタッチしたものと2点同時タッチを意図したものとを識別するのがステップS202設置の目的である。そしてステップS202で実質的な2点同時タッチが検知されるとステップS204のズーム処理に進み、これが完了するとステップS146に戻る。以上のステップS202およびステップS204は、図21から図23に説明した両手親指474及び476の同時タッチによるズーム機能に該当するものであり、ステップS204の詳細は後述する。
 一方、ステップS202で所定時間内2点同時タッチが検知されない場合はステップS206に進み、ステップS148で検知された1点目のタッチ位置が所定時間不変かどうかチェックする。これは、ステップS148からステップS202を経てステップS206に至ったときは、被写体中のフォーカスおよび露出調節位置の指定操作であると想定し、その位置が所定時間ずれずに維持されているかどうかをチェックすることを意味する。ステップS206における所定時間は例えば1秒であり、操作者がフォーカスおよび露出調節位置の指定の意図をもってタッチ位置で指を止めている自然な時間幅として設定される。そして、ステップS206において1点目のタッチ位置が所定時間不変であることが確認されるとステップS208のフォーカスおよび露出調節処理に移行する。ステップS208の内容は、図16のステップS150からS156と同じものである。一方、ステップS206で所定時間内に1点目タッチ位置のずれが生じたときは位置指定の誤操作と判断してステップS146に戻り、ステップS148での1点目再タッチを待つ。つまり、図16の実施例2では、ステップS148の1点タッチ検知後直ちにその位置についてフォーカスおよび露出調節に入っているところ、図24の実施例4では、ズーム操作との識別および誤操作のないことの確認を行った上で1点タッチ検知位置についてのフォーカスおよび露出調節に入るよう構成されている。
 図25は、図24のステップS204におけるズーム処理の詳細を示すフローチャートである。フローがスタートすると、まず、ステップS212で加速度センサ472による水平方向検知が行われ、この検知結果に基づいてタッチされている2点間の水平距離、すなわち抵抗膜式タッチパネル表示部212の短辺方向または長辺方向のいずれか一方に平行な方向成分における2点間の距離が算出される。これにより、タッチした2点が垂直方向にずれていても、その水平方向成分のみが2点間水平距離として算出される。そしてステップS216に進み、ステップS214で算出された値をタッチ開始時点の2点間水平距離として記憶するとともに、その時刻を記憶する。
 次いでステップS218では所定時間(例えば1秒)の経過がチェックされ、未経過ならばステップS220に進んで、指のスライドの結果として2点間の距離に変化が生じたかどうかチェックする。そして変化が検知されるとステップS222に移行し、変化後の2点間水平距離およびその時刻を記憶してステップS224に移行する。ステップS224では2点タッチが解除されたかどうかチェックし、解除がなければステップS218に戻る。なお、ステップS220で2点間水平距離に変化がない場合もステップS218に戻る。以下、所定時間が経過するまでは2点タッチが解除されない限りステップS218からステップS224を繰り返し、2点間の水平距離に変化がある毎にステップS222でその距離および時刻を更新記憶する。
 一方、ステップS224で2点タッチの解除が検知されたときはステップS226に進み、ステップS222での記憶更新結果の最新情報に基づいてタッチ解除時点の2点間水平距離および時刻を確定する。そしてステップS228でタッチ開始時点およびタッチ終了時点の2点間水平距離の比較から2点間水平距離が増加しているかどうかチェックする。増加が確認されるとステップS230の拡大ズーム処理を行ってステップS232に移行し、2点間水平距離関連の全記憶を消去してフローを終了する。拡大ズーム処理の詳細は後述する。一方、ステップS228で2点間水平距離の増加が確認されない場合は2点間水平距離が減少したことを意味するからステップS234に進み、縮小ズーム処理を行ってステップS232に移行する。縮小ズーム処理の詳細についても後述する。なお、ステップS218において2点間水平距離に変化がないまま又は変化があっても2点タッチが解除されないまま所定時間が経過したことが確認された場合は直接ステップS232に移行し、ズーム操作を行わないまま記憶を消去してフローを終了する。
 図26は、図25のステップS230における拡大ズーム処理の詳細を示すフローチャートである。フローがスタートすると、まず、ステップS242においてタッチ開始時点2点水平距離を抵抗膜式タッチパネル表示部212の左右の辺の間の水平距離で割り、拡大倍率を求める。ここでタッチ開始時点2点水平距離は、図25のステップS216で記憶されたものであり、図21(A)における拡大希望範囲478の左右の辺の間の水平距離に該当する。
 次いで、ステップS244では、デジタルカメラ402が現在電子ズーム領域にあるかどうかチェックする。ここで、電子ズーム領域にあるということは、光学ズームによってテレ端(最望遠側ズーム端)まで光学像をズームアップした上でさらに画像処理により画像を拡大した状態であることを意味する。電子ズーム領域でなければ、光学ズームによるテレ側へのズームアップが可能なのでステップS246に進み、ステップS242で算出した拡大倍率に到達しているかどうかをチェックする。ズームアップ開始当初は当然拡大倍率が未達なのでステップS248に進み、所定の速度(メカの構造上、可能な最高速)でズーム機構470を駆動して所定量(可能な最小単位)のズームアップを行う。次いでステップS250で光学ズームがテレ端に達したかどうかチェックし、テレ端でなければステップS246に戻って拡大倍率に到達するか光学ズームがテレ端に達するまでステップS246からステップS250を繰り返す。
 そして、ステップS246で拡大倍率への到達が確認されると、所望のズームアップが達成できたことになるので直ちにフローを終了する。一方、ステップS250で光学ズームがテレ端に達したことが確認されると光学ズームだけでは拡大倍率が達成できないのでステップS252に移行する。ステップS252では、ズームアップの減速補正分を差引いた拡大倍率が達成されているかどうかチェックする。ここで、減速補正分とは光学ズームと電子ズームの間の違和感をなくすためのものであり、電子ズームの終了近辺でズーム速度を減速させ、光学ズームによるメカ駆動停止を模倣するものである。減速補正分とは電子ズームのうちこの減速補正のための倍率変化分を意味する。
 ステップS252でズームアップの減速補正分を差引いた拡大倍率の達成が確認されない場合はステップS254に進み、光学ズームの最高速度を模した所定の拡大速度および拡大量にてズームズームアップを行う。そしてこの場合の拡大は画像中心を基準として同心的に行われる。次いでステップS256で、電子ズームがズームアップの減速補正分を差引いて拡大限界(テレ端)に達したかどうかチェックし、テレ端でなければステップS252に戻って電子ズームが減速補正分を差し引いた上で拡大倍率に到達するかテレ端に達するまでステップS252からステップS256を繰り返す。そして、ステップS252で減速補正分を差引いた拡大倍率への到達が確認されると、ステップS258に進み、拡大電子ズーム減速停止処理により残余の拡大処理を行って拡大倍率を達成し、フローを終了する。一方ステップS256で、減速補正分を差引いた上で電子ズームがテレ端に達したことが確認された場合も、ステップS258に進み、拡大電子ズーム減速停止処理により残余の拡大処理を行って拡大倍率を達成し、フローを終了する。
 また、ステップS244で現在電子ズーム領域であることが検知されたときはステップS260に進み、電子ズームが既にテレ端にあるかどうかのチェックが行われる。そしてテレ端でなければステップS252に進み、以下、上記において光学ズームを経由してステップS252に至ったと同様の処理を実行する。一方、ステップS260で電子ズームがテレ端に達していることが確認された場合は直ちにフローを終了する。
 図27は、図25のステップS234における縮小ズーム処理の詳細を示すフローチャートである。フローがスタートすると、まず、ステップS262において2点間水平距離の変化量が算出されるとともにステップS264において2点間水平距離の変化速度が算出される。これらは、図25のステップS216およびステップS222における記憶値に基づくものである。そしてステップS266において、これら2点間水平距離の変化量と変化速度の積に基づいて縮小倍率が求められる。
 次いで、ステップS268では、デジタルカメラ402が現在電子ズーム領域にあるかどうかチェックする。現在電子ズーム領域であることが検知されたときはステップS270に進み、ステップS266で算出された縮小倍率が電子ズームで達成可能なものであるかどうかチェックされる。これは、縮小倍率が大きすぎて撮像されている画像情報では足りず、光学ズームによってもっと広角の画像情報を得なければ縮小倍率が達成できないような状態にないかどうかのチェックを意味する。
 ステップS270で電子ズームだけでは達成可能な縮小倍率でないことが確認されるとステップS272に進み、光学ズームの最高速度を模した所定の縮小速度および縮小量にてズームダウンの画像処理を行う。この場合の縮小処理についても画像中心を基準として同心的な縮小処理が行われる。そしてステップS274に進み、電子ズームが撮像情報の限界であるワイド端にあるかどうかのチェックが行われる。そしてワイド端でなければステップS272に戻り、電子ズームがワイド端に達するまでステップS272およびステップS274を繰り返し、電子ズームを実行する。そして電子ズームがワイド端に達すると直ちにステップS276に移行する。このように、ステップS270で電子ズームだけでは達成可能な縮小倍率でないことが予め確認されている場合は、電子ズーム減速処理をおこなわず直ちにステップS276以下の光学ズームによるズームダウンに移行する。
 ステップS276では、ステップS266で算出した縮小倍率に到達しているかどうかをチェックする。ステップS274からの移行当初では当然縮小倍率が未達なのでステップS278に進み、ズームアップの場合と同様にして、所定の速度(メカの構造上、可能な最高速)でズーム機構470を駆動して所定量(可能な最小単位)のズームダウンを行う。次いでステップS280で光学ズームがワイド端に達したかどうかチェックし、ワイド端でなければステップS276に戻って縮小倍率に到達するか光学ズームがワイド端に達するまでステップS276からステップS280を繰り返す。
 そして、ステップS276で拡大倍率への到達が確認されると、所望のズームダウンが達成できたことになるので直ちにフローを終了する。一方、ステップS280で光学ズームがワイド端に達したことが確認された場合もこれ以上のズームダウンは不可能なのでフローを終了する。なお、ステップS268で現在電子ズーム領域でないことが確認された場合は直ちにステップS276に移行し、以下ステップS274の電子ズーム経由の場合に説明したと同様の光学ズームによるズームダウンを実行する。
 一方、ステップS266で算出された縮小倍率が電子ズームで達成可能なものであることがステップS270で確認されたときはステップS282に移行し、ステップS272と同様にして、光学ズームの最高速度を模した所定の縮小速度および縮小量にてズームダウンの画像処理を行う。この場合の縮小処理も画像中心を基準とした同心的な縮小処理である。そしてステップS284では、ズームダウンの減速補正分を差引いた縮小倍率が達成されているかどうかチェックする。ここで、ズームダウンの減速補正分はズームアップの場合と同様にして光学ズームと電子ズームの間の違和感をなくすためのものであり、電子ズームの終了近辺でズーム速度を減速させ、ステップS276やステップS280からフローを終了する場合における光学ズームによるメカ駆動停止を模倣するものである。
 ステップS284でズームダウンの減速補正分を差引いた縮小倍率の達成が確認されない場合はステップS282に戻り、以下、電子ズームが減速補正分を差し引いた上で縮小倍率に到達するまでステップS282とステップS284を繰り返す。そして、ステップS284で減速補正分を差引いた縮小倍率への到達が確認されると、ステップS286に進み、縮小電子ズーム減速停止処理により残余の縮小処理を行って縮小拡大倍率を達成し、フローを終了する。このように、縮小の場合は電子ズームだけで縮小倍率が達成できる場合は光学ズームを模した減速停止処理を行うとともに、光学ズームに縮小処理を引き継ぐ場合は、上記のように減速停止処理を行わずに光学ズームに移行する。
<実施例5>
 次に本発明の実施の形態に係るタッチパネル入力装置の実施例5について説明する。実施例5はデジタルカメラに関するもので、静止画撮影に加え動画撮影も可能なものとして構成されている。その基本構成は実施例4と同様なので図20を援用する。また、ズーミング操作についても図21や図22のようにデジタルカメラ402を構えた両手の親指の離間および接近によってズームアップおよびダウンを行う。但し、動画撮影の場合は撮影前ではなく撮影中のズーミング操作となるとともに、ズーミングの到達点だけでなくズーム速度も含めたズーム途中経過の操作も重要となる。図28はこのような動画撮影モードを中心として図20の構成を援用した場合の制御部404の機能を説明するフローチャートである。
 実施例5のデジタルカメラ402についても、電源オン操作が行われると図28のフローがスタートし、ステップS292でデジタルカメラ402の立上処理が行わるとともに、ステップS294で初期状態として静止画の撮影モードを設定してステップS296に移行する。ステップS296では動画撮影モードの手動操作が行われたかどうかチェックし、操作が検知されるとステップS298に移行する。
 ステップS298では、動画撮影モードが設定されてから所定時間以内に1点タッチが検知されるかどうかチェックする。この所定時間は例えば10秒程度の比較的長い時間に設定されるが、ステップS298でこの時間の経過が検知される(言い換えれば、所定時間内の1点タッチが検知されない)と、動画撮影モードを一旦終了してステップS296に戻ることになる。そして、ステップS296で再度動画撮影モードの設定が確認されるとステップS298に移行し、1点タッチの検知を待つ。そしてステップS298で所定時間内の1点タッチ状態が検知されるとステップS300に移行し、タッチが検知された位置における被写体情報を記憶する。つまり、動画撮影モードにおける1点タッチの意義は主要被写体追尾情報の記憶のためであって、抵抗膜式タッチパネル表示部212に表示されている被写体における1点タッチ部分の色、パターン、特徴点の配置などが主要被写体特定情報としてステップS300で記憶されることになる。
 次いで、ステップS302では、ステップS300で記憶された情報に基づき動画撮影中の主要被写体に対する追尾フォーカスおよび追尾露出調整を準備する処理を行ってステップS304に移行する。ステップS302で準備された追尾フォーカスおよび追尾露出調整の実行は以後、録画の開始から停止まで継続されることになる。ステップS304では、ステップS298で1点タッチが検知されてから所定時間が経過したかどうかチェックする。この所定時間は例えば2秒程度であり、1点目タッチにより追尾対象の主要被写体を決定してから2点目タッチ検知による動画撮影開始を待つための時間として設定される。後述のように、この所定時間内に2点目タッチが検知されない場合は1点目タッチに基づく追尾情報の記憶がキャンセルされる。
 ステップS304で所定時間経過が検知されないときはステップS306に進んで1点タッチが解除されたかどうかチェックする。1点タッチ解除が検知されない場合は、ステップS308に進み、1点目タッチを継続して2点目をタッチした結果として2点同時タッチ状態が生じたかどうかチェックする。そして、2点同時タッチ状態が検知されるとステップS310に進んで録画を開始する。これによって画像処理部256によって動画画像圧縮を行うとともに圧縮画像を画像記憶部258に記憶する処理が開始し、録画停止指示までこれが継続される。一方、ステップS308で2点同時タッチ状態が検知されない場合はステップS304に戻り、以下、所定時間が経過するか1点タッチが解除されるかしない限りステップS304からステップS308を繰り返して2点目タッチを待つ。
 ステップS310で録画が開始されると、これと並行してステップS312では所定時間内の2点同時タッチおよびスライドがあったかどうかチェックする。ここでの所定時間は図24のステップS202におけるものと同様のもので、両手親指によるズーミングのための意図的な2点タッチ操作を検知するためのものである。そしてこれが検知されるとステップS314の動画撮影ズーム処理が行われる。その詳細は後述する。ステップS314の動画撮影ズーム処理が完了するとステップS316で1点のダブルタッチが行われたどうかが検知される。これは2点同時タッチ状態が生じないようにして所定間隔で連続してタッチが行われたことの検知であって、ダブルタッチの位置はどこでもよくまた同じ場所でのタッチでなくてもよい。そしてダブルタッチが検知されるとステップS318に進み録画を停止してステップS320に移行する。また、ステップS316で1点ダブルタッチが検知されないときはステップS312に戻り、ズーミング操作を可能にしながら動画撮影を継続する。
 一方、ステップS304で所定時間の経過が検知されたとき、またはステップS306で1点タッチ解除が検知されたときはステップS322に進み、ステップS302における追尾準備処理をキャンセルしてステップS320に移行する。また、ステップS296で動画撮影モードの設定が検知されなかったときは直ちにステップS324の静止画撮影モードおよび再生モード処理に移行する。このステップS324は図24における実施例4のステップS146からステップS148、ステップS202からステップS208、ステップS158からステップS166、およびステップS170からステップS178と同じ処理である。
 また、図28のステップS320は図24のステップS168と同じものであって、デジタルカメラ402の電源オフ操作が行われたかどうかチェックする。そして、電源オフ操作が検知されたときはフローを終了する。一方、ステップS320で電源オフ操作の検知がない場合は静止画撮影モードに復帰してステップS296に戻る。以下、ステップS320で電源オフ操作が検知されない限りステップS296からステップS320を繰り返し、静止画撮影モードの動作を基本に、動画撮影モードが設定された場合における撮影開始と停止およびズーミングの操作に対応するとともに、再生モードへの移行操作および静止画撮影モードへの復帰操作に対応する。
 図29は、図28のステップS314における動画撮影ズーム処理の詳細を示すフローチャートである。フローがスタートすると、まず、ステップS332において2点間の水平距離が所定量増加したかどうかのチェックが行われる。この所定量は検知および制御可能な最小単位である。2点間水平距離の所定量増加が検知されるとステップS334に移行し、光学ズームがテレ端にあるかどうかがチェックされる。そしてテレ端でなければステップS336に移行し、光学ズームによってステップS332の検知に対応した所定量だけズームアップを行ってステップS338に移行する。一方、ステップS332で2点間の水平距離所定量増加が検知されない場合、またはステップS334で光学ズームがテレ端にあることが検知された場合は直接ステップS338に移行する。
 ステップS338では、2点間の水平距離が所定量減少したかどうかのチェックが行われる。この所定量も検知および制御可能な最小単位である。2点間水平距離の所定量減少が検知されるとステップS340に移行し、光学ズームがワイド端にあるかどうかがチェックされる。そしてワイド端でなければステップS342に移行し、光学ズームによってステップS338の検知に対応した所定量だけズームダウンを行ってステップS344に移行する。一方、ステップS338で2点間の水平距離所定量減少が検知されない場合、またはステップS340で光学ズームがワイド端にあることが検知された場合は直接ステップS344に移行する。
 ステップS344では、2点同時タッチ状態が解除されたかどうかのチェックが行われる。そして2点同時タッチ解除が検知されるとフローを終了する。一方、ステップS344で2点同時タッチ解除が検知されないときはステップS346に進み、所定時間2点間の距離が無変化である状態が続くかどうかチェックする。そして無変化状態が検知されるとフローを終了する。一方、ステップS346で無変化の検知がない場合はズーム操作が継続されているのでステップS332に戻り、以下、2点同時タッチの解除または所定時間以上の2点間距離無変化が検知されない限りステップS332からステップS346を繰り返し、動画撮影中のズーム操作に対応する。フローから理解されるとおり、ズーム操作はアップダウンが任意に可能である。またズーム速度は2点間水平距離を決める両手親指の動きにより任意に変えることができる。
 図30は、図14に示す実施例2のデジタルカメラ202、または図20に示す実施例4のデジタルカメラ402の再生モードにおいて抵抗膜式タッチパネル表示部212に表示される再生画像を示す画面図である。図30(A)は、再生画像502が全画面表示されている場合においてこれを編集のため矩形に切取り記憶する操作を示しており、右手504の親指のタッチ位置506と人差指のタッチ位置508の2点を結ぶ線を対角線とする矩形領域510を認識する。この認識は、誤操作を避けるため、2点タッチ位置が所定時間(例えば2秒)変化しないことを確認して行われる。つまり、操作側から見れば、矩形領域510の対角となる2点を二つの指で所定時間意識的にタッチし続けることによって切取り部分の指定およびその記憶を実行させることができる。そして2点が認識されると図30(B)のように矩形領域510が切り取られ、その画像データが別途記憶される。
 図31は、図30と同様にして、図14に示す実施例2のデジタルカメラ202、または図20に示す実施例4のデジタルカメラ402の再生モードにおいて抵抗膜式タッチパネル表示部212に表示される再生画像を示す画面図である。図31(A)の場合は、全画面表示されている再生画像502の一部を編集のため円形に切取り記憶する操作を示しており、右手504の親指および人差指の当初のタッチ位置512および514がまず記憶される。そして当初のタッチから所定時間(例えば2秒)以内で右手512をスライド回転させた結果の矢印516および518に示す親指と人差指の移動状況が検知される。図31(A)の例では、右手504を時計回りに回転させているが、この結果、矢印520および522で示すように2点間の垂直間隔が減少し、一方、矢印524および526で示すように2点間の水平距離が拡大する。このようして、2点の水平間隔(X軸方向成分)と垂直間隔(Y軸方向成分)の変化方向が逆であることが検知されると、タッチしている親指および人差指がそれぞれ弧を描いて回転させられたものと判定し、当初記憶した親指のタッチ位置512および人差指のタッチ位置514を直径とする円領域528を認識する。そして図31(B)のように、認識された円領域528が切り取られ、その画像データが別途記憶される。
 図32は、実施例2のデジタルカメラ202の動作に関する図16のフローチャートまたは実施例4のデジタルカメラ402の動作に関する図24のフローチャートにおけるそれぞれステップS174の再生モードの詳細をステップS176とともに示すフローチャートである。フローがスタートすると、まずステップS352で最新撮影画像が抵抗膜式タッチパネル表示部212に全画面表示される。そしてステップS354でスライドショー操作が行われたかどうかチェックする。操作がなければステップS356で画像送り操作の有無をチェックする。操作があればステップS358に進んで操作に従って全画面表示画像を前後の画像に変更してステップS360に移行する。また、操作がなければステップS356から直接ステップS360に移行する。
 ステップS360ではサムネイル表示を行うための操作があったかどうかチェックする。そして操作があればステップS362のサムネイル表示および選択処理に移行する。この処理はまず複数画像のサムネイルを一覧表示するとともに必要に応じその送り操作に応答し、さらにサムネイルのうちの一つを選択するものである。そしてサムネイルの選択が行われるとステップS364に移行して選択画像を全画面表示してステップS366に移行する。一方、ステップS360でサムネイル操作が検知されない場合は直接ステップS366に移行する。上記のようにして、ステップS366に至った時は、ステップS352による最新撮影画像の全画面表示、またはステップS358で画像送りにより変更された画像の全画面表示、またはステップS364においてサムネイル選択の結果表示された画像の全画面表示のいずれかが行われている状態となる。
 ステップS366はこのような画像の全画面表示状態において1点タッチが検知されるかどうかチェックする。そして1点タッチ状態が検知されるとステップS368に移行し、1点タッチ検知の後所定時間内に2点目がタッチされて2点同時タッチ状態が検知されたかどうかチェックする。この所定時間は極めて短時間(例えば0.5秒)に設定されており、操作者としては2点同時タッチを意図したものに多少のずれがあってもこの所定時間内に収まり、それが2点同時タッチとして認識されるよう設計されている。つまり、操作者が意図して1点目タッチの後に2点目をタッチしたものと2点同時タッチを意図したものとを識別するのがステップS368設置の目的である。そしてステップS368で実質的な2点同時タッチが検知されるとステップS370に進み、2点のタッチ位置を記憶する。
 次いで、ステップS372において記憶された2点位置を基準にその後の所定時間(例えば2秒)以上にわたってタッチされている2点の位置が不変に保たれているかどうかチェックする。そして2点位置に変化があればステップS374に進み、2点タッチ位置の変化の結果、2点の水平間隔(X軸方向成分)と垂直間隔(Y軸方向成分)の変化方向が逆であるかどうかチェックする。このチェックの結果2点間隔XY軸成分変化方向が逆であることが検知されると、ステップS376に進んで回転操作がなされたものと判断し、ステップS378に移行する。ステップS378では、ステップS370で記憶されている2点のタッチ位置を直径とする円領域を認識し、認識した円領域の画像を切り取って記憶するとともにステップS176に移行する。これは、図31で示した機能に該当する。
 一方、ステップS372において記憶された2点位置を基準にその後の所定時間以上にわたってタッチされている2点の位置が不変に保たれていることが確認されると、ステップS380に移行し、ステップS370で記憶した2点を結ぶ線を対角線とする矩形領域を認識する。そして認識した矩形領域の画像を切り取って記憶するとともにステップS176に移行する。これは、図30で示した機能に該当する。
 ステップS176は、図32の機能を理解しやすくするために図16のフローチャートまたは図24のフローチャートのステップを記載したものであって、撮影モード設定操作が行われたかどうかをチェックするものである。そしてこの設定が検知されない場合、フローは図32の頭にあるステップS352に戻る。また、ステップS354においてスライドショー操作が行われたことが検知されるとステップS382のスライドショー処理に移行し、スライドショーを実行する。そしてスライドショー処理の中でスライドショーが完了させられるとステップS352に戻る。以下、ステップS176で再生モード終了操作(言い換えれば、撮影モード設定操作)が検知されない限りステップS352からステップS382およびステップS176を繰り返し、再生モードにおける種々の操作に対応する。そしてステップS176において撮影モード設定操作が検知されると図16または図24におけるステップS168に移行する。
 図33は、実施例5に関する図28のフローチャートのステップS314における動画撮影ズーム処理の詳細の他の例を示すフローチャートである。その大部分は図29のフローチャートに示した例と共通なので、共通するステップには共通のステップ番号を付し、必要のない限り、説明を省略する。図29と図33の違いについて述べると、図29においては、ステップS336またはステップS342において所定量の光学ズームアップまたはダウンの駆動をそれぞれ行っているが、その速度は所定速度である。これに対し、図33では、光学ズームアップおよびダウンの駆動を行う際、両手親指タッチ位置間の水平距離の増加速度または減少速度に応じてズーム速度を変化させる構成をとっている。
 具体的に述べると、図33においては、ステップS334で光学ズームがテレ端であることが検知されない場合、ステップS384に進み、ステップS332で判断された2点間水平距離の所定量増加の速度を検知する。そして検知された増加速度に基づきステップS386においてズーム速度を決定する。次いでステップS388では、決定されたズーム速度において光学ズームの所定量アップ駆動を行う。同様にして、ステップS340で光学ズームがワイド端であることが検知されない場合、ステップS390に進み、ステップS338で判断された2点間水平距離の所定量減少の速度を検知する。そして検知された減少速度に基づきステップS392においてズーム速度を決定する。次いでステップS394では、決定されたズーム速度において光学ズームの所定量ダウン駆動を行う。このようにして、図33のフローチャートに示した例では、指の移動速度に応答したズーミングが行われる。
<実施例6>
 図34は、本発明の実施の形態に係るタッチパネル入力装置の実施例6を示す外観斜視図である。実施例6はデジタルカメラ602を構成しており、その内部構成は、図20の実施例4と共通である。しかしながら、実施例4では、図21および図22に示すように、デジタルカメラ402を例えば両手で目前に構えたとき前方方向にある被写体像が抵抗膜式タッチパネル表示部212に表示される構成となっているのに対し、図34の実施例6では、デジタルカメラ602を例えば左手603で腰の位置に構えて見下ろした時、ズームレンズ光学系652の光軸653が被写体の方を向き、光軸652と平行に設けられた抵抗膜式タッチパネル表示部612に被写体像が上向きに表示される構成となっている。つまり、実施例4ではいわゆるアイレベルファインダを有するカメラとして構成されるのに対し、実施例6はウエストレベルファインダを有するカメラとして構成される。
 デジタルカメラ602の操作は、手振れを防ぐため光軸653と平行な方向の指の動き、つまり抵抗膜式タッチパネル表示部612上をスライドする指の動きによって行われる。例として、ズーム操作は矢印607に示すように例えば人差指の1点タッチによるスライドによって行われる。このようなズーム操作は、例えば右手605の人差指を矢印607に沿って前方(被写体側に近づく方向)に押し出すことによりズームアップを行い、人差指を矢印607に沿って後方(被写体側から遠ざかる方向)に引くことによってズームダウンを行うような光軸653と平行な方向のスライドによれば直感的に分かりやすい操作となる。そして、例えば人差指の静止タッチを維持して親指を矢印609のように任意の方向にスライドさせることによってシャッタレリーズを行う。特にこのような光軸653と平行な平面上の指のスライドによるシャッタレリーズは手振れ防止の効果が大きい。また、ズームレンズ光学系652の光軸653が抵抗膜式タッチパネル表示部612と平行となる配置は比較的長いズームレンズ光学系652を薄型のデジタルカメラ602に配置する上でも有利である。
 また、デジタルカメラ602は図20に示すような加速度センサ472によって重力加速度の方向を検知しているので、ウエストレベルファインダ特有の縦長画面撮影と横長画面撮影の検知を行う。まず、光軸653が水平に対して上方45度以上または下方45度以上を向いているときは、いずれも抵抗膜式タッチパネル表示部612の上下方向と光軸653の方向は同じものとして横長画面撮影と判断する。また上方撮影か下方撮影であれば天地情報を逆転させる。これに対し、光軸653が水平に対し上下45度以内であるときは場合を二つにわけて判断がなされる。すなわち光軸653が水平に対し上下45度以内で且つ抵抗膜式タッチパネル表示部612もが水平に対し上下45度以内の場合(つまり図34に図示のような通常のウエストレベル撮影状態)では、横長画面撮影と判断する。一方、光軸653が水平に対し上下45以内で且つ抵抗膜式タッチパネル表示部612が水平に対し上下45度以上傾いている場合は、抵抗膜式タッチパネル表示部212の左方または右方の被写体を狙った縦長画面撮影と判断する。あわせて左方撮影か右方撮影かで天地情報を逆転させる。これらの検知結果は画像情報と併せて記録される。
 図35は、上記実施例6に図20の構成を援用した場合の制御部404の機能を説明するフローチャートである。実施例6のデジタルカメラ604についても、電源オン操作が行われると図35のフローがスタートし、ステップS402でデジタルカメラ602の立上処理が行わるとともに、ステップS404で初期状態として静止画の撮影モードを設定してステップS406に移行する。ステップS406では再生モード設定の手動操作が行われたかどうかチェックし操作がなければステップS408に進む。
 ステップS408では、1点タッチが検知されるかどうかチェックする。そして1点タッチ状態が検知されるとステップS410に移行し、タッチ位置が所定時間不変かどうかチェックする。所定時間内にタッチ位置に変化があればステップS412に進み、タッチ位置の変化がズームレンズの光軸方向かどうかチェックする。そして光軸方向のタッチ位置変化が検知されるとステップS414のズーム処理に移行する。このズーム処理は光軸方向の1点タッチ位置の変化が被写体側に近づく方向であったときにはその変化速度および変化量に応答してズームアップを行い、逆に光軸方向の1点タッチ位置の変化が被写体側から遠ざかる方向であったときにはその変化速度および変化量に応答してズームダウンを行うものである。そしてタッチが解除されるか所定時間タッチ位置の変化がないとズーム処理を終了しステップS406に戻る。
 なお、ステップS408で一点タッチが検知されないときは、ステップS406に戻る。さらに、ステップS412でタッチ位置の変化が光軸方向でなかったときもタッチが意図のない誤操作であったと看做してステップS406に戻る。以下、再生モード設定操作が検知されるか、または一点タッチが検知されてその位置が所定時間不変であることが検知されるか、または一点タッチ位置に光軸方向の変化が生じるかしない限り、ステップS406からステップS414を繰り返す。
 一方、ステップS410において一点タッチ位置が所定時間不変であることが検知されるとステップS416に移行し、タッチが検知された位置を記憶してステップS418のフォーカス/露出調節処理に進む。この処理の内容は、基本的には図16のステップS154およびステップS156と同じものである。そしてステップS418のフォーカス/露出調節処理が終了すると、ステップS420に進み、ステップS408で1点タッチが検知されてから所定時間(例えば2秒)が経過したかどうかチェックする。
 ステップS420で所定時間経過が検知されないときはステップS422に進んで1点タッチが解除されたかどうかチェックする。1点タッチ解除が検知されない場合は、ステップS424に進み、1点目タッチを継続して2点目をタッチした結果として2点同時タッチ状態が生じたかどうかチェックする。そして、ステップS424で2点同時タッチ状態が検知されるとステップS426に進み、2点目のタッチ位置が所定時間(例えばシャッタチャンスを待つための3秒)内に変化したかどうかチェックする。そして2点目のタッチ位置変化が検知されるとステップS428に進んでシャッタレリーズが行われ、ステップS430の撮像処理を経てステップS432に移行する。ステップS430の撮像処理の詳細は後述する。
 一方、ステップS424で2点同時タッチ状態が検知されない場合はステップS420に戻り、以下、所定時間が経過するか1点タッチが解除されるかしない限りステップS420からステップS424を繰り返して2点目タッチを待つ。なお、ステップS426で所定時間内に2点目タッチ位置の変化がないときはシャッタレリーズの実行を見合わせたものとしてステップS432に移行する。このように、ステップS426により光軸653に平行な抵抗膜式タッチパネル表示部612上をスライドする指の動きでシャッタレリーズを実行することにより手振れを防ぐとともに、シャッタレリーズの意図なく2点目タッチを行った瞬間に誤ってシャッタレリーズが実行されるのを防止する。ステップS432では、デジタルカメラ602の電源オフ操作が行われたかどうかチェックする。そして、電源オフ操作が検知されたときはフローを終了する。
 一方、ステップS420で所定時間経過が検知されたとき、またはステップS422で1点タッチ解除が検知されたときはステップS434に移行し、1点タッチの記憶をキャンセルし、ステップS432に移行する。これによって、後述のように新たな1点目タッチ位置の決定に入ることを可能とする。
 一方、ステップS406において再生モード設定操作が検知されたときはステップS436に移行して再生モード処理が行われる。その内容は、図32における実施例2または実施例4におけるものと同様である。また、実施例2または実施例4と同様にして再生モード処理では定期的にステップS438に移行して撮影モード設定操作の有無をチェックし、操作がなければステップS436に戻って再生モードを継続する。ステップS438で撮影モード設定操作が検知されるとステップS440で撮影モードを設定してステップS432に進む。前述のように、ステップS432で電源オフ操作が検知されるとフローは終了となるが、電源オフ操作の検知がない場合はステップS406に戻る。以下、ステップS432で電源オフ操作が検知されない限りステップS406からステップS432を繰り返し、基本的には撮影モードの種々の操作に対応するとともに適宜再生モードへの移行操作および撮影モードへの復帰操作に対応する。この点は、実施例2または実施例4と同様である。
 図36は、図35のステップS340における撮像処理の詳細を示すフローチャートである。フローがスタートするとステップS442で補間処理や輪郭強調処理等を含むカラー画像処理が行われる。次いでステップS444において処理後のカラー画像を所定時間抵抗膜式タッチパネル表示部612に静止画として表示する処理をして、ステップS446の画像圧縮処理に進む。そして画像圧縮が完了するとその記憶に先立ってステップS448に進み、加速度センサ472によって撮影時の重力加速度を検知する。
 そして、ステップS450で、撮影時の光軸653の角度が水平に対して上方に向けて45度以上傾いているかどうかチェックする。該当すれば、光学レンズ652の配置側が画面上側となる上方撮影であると判断し、ステップS452で横長画面撮影情報を設定する。一方、ステップS450に該当しなければ、ステップS454に移行し、撮影時の光軸653の角度が水平に対して下方に向けて45度以上傾いているかどうかチェックする。これに該当する場合は、光学レンズ652の配置側が画面下側となる下方撮影であると判断し、まずステップS456で天地情報を逆転させた後ステップS452に移行して横長画面撮影情報を設定する。
 これに対し、ステップS450およびステップS454のいずれにも該当しない場合は、光軸653が水平方向に近い通常の撮影と考えられるのでステップS458に移行し、今度は抵抗膜式タッチパネル表示部612が45度以上傾いているかどうかチェックする。そして該当しなければ抵抗膜式タッチパネル表示部612も水平に近く、図34に図示のような光学レンズ652の配置側が画面上側となる通常のウエストレベル撮影状態と考えられるのでステップS452に移行して、横長画面撮影情報を設定する。
 一方、ステップS458で抵抗膜式タッチパネル表示部612が45度以上傾いていることが検知された場合は、デジタルカメラ602を立てて抵抗膜式タッチパネル表示部612の左方または右方の被写体を狙った縦長画面撮影であると判断し、ステップS460で光軸方向が右方を向いているかどうか検知する。これは図34からわかるように光軸653が左方を向くようにしてデジタルカメラ604を立てたときは、光軸653の右側(図34の上方)が画面上側となる縦長画面撮影となるのに対し、光軸653が右方を向くようにしてデジタルカメラ604を立てたときは、光軸653の左側(図34の下方)が画面上側となる縦長画面撮影となるからである。以上の関係に基づき、ステップS460で光軸方向が右方を向いていることが検知された時はステップS462で天地情報を逆転させてステップS464に移行し、縦長画面撮影情報を設定する。一方、ステップS460で光軸方向が左方を向いていること(言い換えれば右方を向いていないこと)が検知された時は直接ステップS464に移行し、縦長画面撮影情報を設定する。
 以上のようにして縦長画面撮影か横長画面撮影かの別および天地情報逆転の有無が決定されるとステップS466に進み、決定された縦長画面撮影か横長画面撮影の情報をステップS446で得られた圧縮画像情報に付加する。さらに、ステップS468では、決定された天地情報を同様にして圧縮画像情報に付加し、ステップS470でこれら付加情報つきの圧縮画像を記憶する処理を行ってフローを終了する。
 上記の縦長画面撮影か横長画面撮影かの別および天地情報逆転の有無の情報付加の特徴は、光軸653が抵抗膜式タッチパネル表示部612と平行に固定されている実施例6のようなデジタルカメラ602への適用に限るものではなく、アングルファインダのようにファインダ表示面と光軸との関係が可変のデジタルカメラにも適用可能である。つまり、光軸がファインダ表示面に直角に固定されているカメラの場合には光軸回りに90度カメラを回転させることにより縦長画面撮影または横長画面撮影を行うことができるが、光軸がファインダ表示面に直角でない場合には種々の撮影状況が生じるので、縦長画面撮影か横長画面撮影かの別および天地情報逆転の有無の情報付加の特徴はきわめて有益である。さらに、光軸がファインダ表示面に直角に固定されているカメラの場合であっても、横長画面撮影の場合にはことさらにカメラを天地逆に構えることはないが、縦長画面撮影を行う場合はカメラを右に90度回転させる場合と左に90度回転させる場合が生じるので、縦長画面撮影か横長画面撮影かの別および天地情報逆転の有無の情報付加の特徴は有益である。
 以下では、本明細書中に開示されている技術的特徴について総括する。
<第1の技術的特徴>
 本明細書中に開示されている第1の技術的特徴は、タッチパネル入力装置に関するものである。そして、第1の技術的特徴が解決しようとする課題は、多点の検知が可能なタッチパネルを活用した実用的なタッチパネル入力装置を提供することにある。
 上記課題を解決するため、本明細書中に開示されている第1の技術的特徴は、タッチパネルと、右手指の配置に適した右手用2点タッチ入力検知態様と左手指の配置に適した左手用2点タッチ入力検知態様が切り換え可能であり、そのいずれかの入力検知態様において前記タッチパネルへの2点タッチを検知する入力制御部と、を有するタッチパネル入力装置を提供する。これによって、右手指と左手指の配置にそれぞれ適した無理のない2点タッチ入力が可能となる。
 具体的特徴によれば、前記タッチパネルは表示およびタッチパネル機能を備えたタッチパネル表示画面として構成されるとともに、右手用2点タッチ入力検知態様と左手用2点タッチ入力検知態様にそれぞれ対応して右手指の配置に適した右手用2点タッチ入力画面と左手指の配置に適した左手用2点タッチ入力画面をそれぞれタッチパネル表示画面に提供する表示制御部が前記タッチパネルに設けられる。これによって、右手指と左手指の配置にそれぞれ適した無理のない2点タッチによるGUI入力が可能となる。
 他の具体的特徴によれば、前記入力制御部は、右手用2点タッチ入力検知態様では2点を結ぶ線が左下がりとなる2点の検知に基づいて入力を行うとともに左手用2点タッチ入力検知態様では2点を結ぶ線が右下がりとなる2点の検知に基づいて入力を行う。これによって動きの自由度の高い右手親指と他の指による入力、および右手親指と他の指による入力が可能となる。
 さらに他の具体的な特徴によれば、前記入力制御部は、識別情報に基づいて右手用2点タッチ入力検知態様と左手用2点タッチ入力検知態様を切り換える。これによって左右の2点タッチ入力検知態様を自動的に切り換えることが可能となる。さらに具体的な特徴によれば、前記入力制御部は、検知される2点を結ぶ線が左下がりとなるか右下がりとなるかを識別情報とする。これによって2点タッチ情報そのものを識別情報とすることができ、別途の識別手段を設ける必要がなくなる。
 他の具体的な特徴によれば、前記入力制御部は、右手用2点タッチ入力検知態様と左手用2点タッチ入力検知態様において2点検知情報に基づいて異なる入力を行う。これによって例えば車両のナビゲーション装置に搭載されるタッチパネル入力装置に適用された場合などにおいて、運転者による左手操作と助手席同乗者の右手操作による入力に差を設け、運転者による危険な操作を防止することができる。さらに具体的な特徴によれば、前記入力制御部は、右手用2点タッチ入力検知態様と左手用2点タッチ入力検知態様のいずれか一方においては2点検知情報に基づいて両者間の相対位置情報を入力し、他方においては2点それぞれの絶対位置情報を入力する。これによって、入力の容易な相対位置入力とより厳密性を要する絶対位置入力を適切に使い分けることができる。
 他の特徴によれば、表示およびタッチパネル機能を備えたタッチパネル表示画面と、右手指の配置に適した右手用2点タッチ用入力画面と左手指の配置に適した左手用2点タッチ用入力画面をそれぞれタッチパネル表示画面に提供する表示制御部と、タッチパネルへの2点タッチを検知する検知部とを有するタッチパネル入力装置が提供される。これによって、右手指と左手指の配置にそれぞれ適した無理のない2点タッチによるGUI入力が可能となる。
 具体的な特徴によれば、前記表示制御部は、前記検知部が検知する2点を結ぶ線が左下がりとなる2点の検知に基づいて前記右手用2点タッチ入力画面を提供するとともに、前記検知部が検知する2点を結ぶ線が右下がりとなる2点の検知に基づいて入力画面を自動的に切り換えることができ、入力画面切り換えのための別途の識別手段等を設ける必要がなくなる。
 他の特徴によれば、タッチパネルと、タッチパネルへの2点タッチを検知する検知部と、前記検知部により検知される2点を結ぶ線が左下がりとなるか右下がりとなるかを識別する識別部とを有するタッチパネル入力装置が提供される。これによって、例えば、2点タッチが右手で行われているか左手で行われているかを自動的に識別することが可能となる。
 具体的な特徴によれば、前記識別部に応じ、検知される2点を結ぶ線が左下がりとなるか右下がりとなるかで検知される2点に基づいて異なる入力を行う入力制御部がタッチパネル入力装置に設けられる。これによって、例えば右手操作か左手操作かによって異なる入力を行うことができる。より具体的な特徴によれば、前記入力制御部は、前記識別部に応じ、検知される2点を結ぶ線が左下がりとなるか右下がりとなる場合のいずれか一方においては2点検知情報に基づいて両者間の相対位置情報を入力し、他方においては2点それぞれの絶対位置情報を入力する。これによって、入力の容易な相対位置入力とより厳密性を要する絶対位置入力を適切に使い分けることができる。他のより具体的な特徴によれば、前記入力制御部は、前記識別部に応じ、検知される2点を結ぶ線が左下がりとなるか右下がりとなる場合のいずれか一方において所定の入力を禁止する。これによって、状況に応じ、不都合な入力操作を防止することができる。
 他の具体的な特徴によれば、前記タッチパネルは表示およびタッチパネル機能を備えたタッチパネル表示画面として構成されるとともに、前記識別部に応じ、検知される2点を結ぶ線が左下がりとなるか右下がりとなる場合のいずれか一方において前記タッチパネル表示画面における所定の表示を禁止する表示制御部がタッチパネル入力装置に設けられる。これによって、状況に応じ、不都合なGUI入力操作を防止することができる。
 上記のように、本明細書中に開示されている第1の技術的特徴によれば、多点の検知が可能なタッチパネルを活用した実用的なタッチパネル入力装置を提供することができる。
<第2の技術的特徴>
 本明細書中に開示されている第2の技術的特徴は、タッチパネル入力装置に関するものである。そして、第2の技術的特徴が解決しようとする課題は、多点の検知が可能なタッチパネルを活用した実用的なタッチパネル入力装置を提供することにある。
 上記課題を解決するため、本明細書中に開示されている第2の技術的特徴は、タッチパネルと、前記タッチパネルへの2点同時タッチ状態を検知する検知部と、前記検知部の2点タッチのタイミングに応じ異なった入力を行う入力制御部とを有するタッチパネル入力装置を提供する。これによって2点タッチ操作の混乱を防止するとともに簡単な操作感覚での入力を可能とすることができる。
 具体的特徴によれば、前記入力制御部は、前記検知部が検知する2点タッチにおける1点目タッチと2点目タッチに応答して異なった機能の入力を行う。これによって、1点目タッチに続く2点目タッチによって連続して異なった入力を行うことができ、例えば親指と人差指など異なった指の連続タッチにより連続して異なった入力を行うことができる。
 本発明の他の具体的特徴によれば、入力制御部は、検知部が検知する2点タッチにおける1点目タッチ検知後2点目タッチ検知までの時間間隔に応答して入力を異ならしめる。これによってタッチ感覚の自然な相違により混乱なく所望の入力を行うことが可能となる。例えば、1点目タッチ検知後2点目タッチ検知までの時間間隔が所定以上ある場合、2点目タッチに応答する入力を禁止するようにすれば、偶然生じた2点タッチによる誤入力を防止することができる。
 また、例えば、1点目タッチ検知後2点目タッチ検知までの時間間隔が所定時間以内であるとき1点目タッチと2点目タッチを関連づけて入力するようにすれば、意図的に行われた2点タッチを適切に識別し、所望の入力を行うことが可能となる。さらに、例えば、1点目タッチ検知後2点目タッチ検知までの時間間隔が所定時間以上あるとき1点タッチ操作としての入力を実行するよう構成すれば、自然な操作感覚で1点操作入力と2点操作入力を使い分けることができる。
 他の特徴によれば、タッチパネルと、前記タッチパネルへの2点同時タッチ状態を検知する検知部と、前記検知部が検知する2点タッチにおける1点目タッチ位置と2点目タッチ位置の組合せにより入力を行う入力制御部とを有するタッチパネル入力装置が提供される。これによって複数の要素の組合せに基づく入力が可能となる。
 具体的な特徴によれば、前記タッチパネルは表示およびタッチパネル機能を備えたタッチパネル表示画面として構成されるとともに、タッチの基準位置を前記タッチパネル表示画面に表示する表示制御部が設けられる。これによって組合せ候補の表示と2点タッチによるその選択が適切に行われる。
 他の具体的な特徴によれば、前記入力制御部は、前記検知部が検知する2点タッチにおける特定の1点目タッチ位置と特定の2点目タッチ位置の相対位置変化に応じて所定の入力を行う。これによって2点タッチによる組合せの指定と指定された組合せによる入力実行が簡単な操作で可能となる。より具体的な特徴によれば、前記入力制御部は、前記検知部が検知する2点タッチにおける特定の1点目タッチ位置に特定の2点目タッチ位置がドラグされることによって所定の入力を行う。これにより、2点タッチによる指定の組合せによる入力が感覚的にも了解しやすい形で行われる。このような入力の具体例は文字の子音要素と母音要素の組合せによる文字入力である。
 他の特徴によれば、表示およびタッチパネル機能を備えたタッチパネル表示画面と、文字の子音のタッチ基準位置および文字の母音のタッチ基準位置を前記タッチパネル表示画面の辺部分に配置する表示制御部と、前記タッチパネル表示画面へのタッチ状態を検知する検知部と、前記検知部によるタッチ検知に応じ文字入力を行う入力制御部とを有することを特徴とするタッチパネル入力装置が提供される。これによって文字の直接指定よりも少ない要素の組合せによる文字入力が可能となり、前記タッチパネル表示画面の中央部分を有効に活用することができる。
 具体的な特徴によれば、前記表示制御部は、テンキー表示を前記タッチパネル表示画面の中央部分に配置する。このようにして、文字の子音のタッチ基準位置および文字の母音のタッチ基準位置を前記タッチパネル表示画面の辺部分に配置するとともに前記テンキー表示を前記タッチパネル表示画面の中央部分に配置することにより、限られた前記タッチパネル表示画面を利用して多様かつ容易な入力が可能となる。
 より具体的な特徴によれば、前記検知部は、前記タッチパネル表示画面の前記テンキー表示への1点タッチ状態を検知することにより数字入力を行う。このようにして、文字の子音および母音の組合せを2点タッチにより指定するとともに、タッチ基準位置を前記タッチパネル表示画面の辺部分に配置するとともに、前記テンキー表示への1点タッチにより数字を指定することにより、多様な入力を容易に行うことができる。また、このような1点タッチと2点タッチの使い分けに関しては、上記した種々の特徴を必要に応じ併用することができる。
 上記のように、本明細書中に開示されている第2の技術的特徴によれば、多点の検知が可能なタッチパネルを活用した実用的なタッチパネル入力装置を提供することができる。
<第3の技術的特徴>
 本明細書中に開示されている第3の技術的特徴は、タッチパネル入力装置に関するものである。そして、第3の技術的特徴が解決しようとする課題は、多点の検知が可能なタッチパネルを活用した実用的なタッチパネル入力装置を提供することにある。
 上記課題を解決するため、本明細書中に開示されている第3の技術的特徴は、タッチパネルと、前記タッチパネルへの2点同時タッチ状態を検知する検知部と、前記検知部が検知する2点タッチ位置に基づきその相対関係を情報として入力する第1入力モードとタッチが検知された絶対位置を情報として入力する第2入力モードがある入力制御部とを有するタッチパネル入力装置を提供する。これによって、入力状況に応じた多様な入力が可能となる。
 具体的特徴によれば、前記第2入力モードにおいて、前記入力制御部は、前記検知部が検知する2点の絶対位置に基づいて情報を入力する。これによって、前記検知部が検知する2点タッチ情報を、その相対関係情報およびそれぞれの絶対位置情報としてそれぞれ目的に応じて使い分けることが可能となる。例えば前記第1入力モードでは情報は相対位置なので、前記タッチパネルのどの部分をタッチしても相対情報が同じなら同じ入力を行うことができるので個々のタッチ位置に厳密性が求められない入力が可能となるとともに、前記第2入力モードでは、2点の絶対位置情報により、例えば2点の絶対位置に基づいて指定される前記タッチパネル上の領域など二次元的な絶対位置情報の入力が可能となる。
 他の具体的特徴によれば、前記入力制御部は、前記第1入力モードにおいて前記検知部が検知する2点タッチ位置の相対変化に基づいて情報を入力する。より具体的な特徴によれば、前記第1入力モードにおいて、前記入力制御部は、前記検知部が検知する2点タッチ位置が相対的に離間するか接近するかに基づいて前記タッチパネル上の絶対位置にかかわらず2種の情報を入力することができる。
 他の具体的特徴によれば、前記第1入力モードにおいて、前記入力制御部は、前記検知部が検知する2点タッチ位置の相対間隔に基づいて情報を入力する。より具体的な特徴によれば、前記第1入力モードにおいて、前記入力制御部は、前記検知部が検知する2点タッチ位置の相対間隔が所定より大きいか小さいかに基づいて前記タッチパネル上の絶対位置にかかわらず2種の情報を入力することができる。
 他の具体的特徴によれば、前記タッチパネルは表示およびタッチパネル機能を備えたタッチパネル表示画面として構成される。この構成の好適な例として、前記タッチパネルを車両に搭載されるカーナビゲーション装置の表示および入力手段として構成すれば、前記第1入力モードを走行中の情報入力用とするとともに前記第2入力モードを停車中の情報入力用として活用できる。前記タッチパネルを車両に搭載されるカーナビゲーション装置の表示および入力手段として構成する際の他の好適な例としては、前記第1入力モードを運転者による情報入力用とするとともに前記第2入力モードを同乗者による情報入力用として活用できる。いずれの場合も前記第1入力モードは危険を防止する入力として好適であり、前記第2入力モードは情報量の多い入力として好適である。
 他の特徴によれば、タッチパネルと、前記タッチパネルへの2点同時タッチ状態を検知する検知部と、前記検知部が検知する2点タッチ位置の相対間隔に基づいて情報を入力する入力制御部とを有するタッチパネル入力装置が提供される。これによって、相対情報さえ同じならば前記タッチパネル上におけるタッチの絶対位置にかかわらない入力が可能となる。より具体的な特徴によれば、前記入力制御部は、前記検知部が検知する2点タッチ位置の相対間隔が所定より大きいか小さいかに基づいて前記タッチパネル上の絶対位置にかかわらず2種の情報を入力することができる。
 具体的な特徴によれば、前記入力制御部は、前記検知部が検知する2点タッチ位置の平行移動に基づいて情報を入力する。これによって、前記タッチパネル上の絶対位置にかかわらない簡単な動きにより二段階の情報を確実に入力することが可能となる。
 他の特徴によれば、タッチパネルと、前記タッチパネルへの2点同時タッチ状態を検知する検知部と、前記検知部が検知する2点タッチ位置の平行移動に基づいて情報を入力する入力制御部とを有するタッチパネル入力装置が提供される。これによって簡単な操作でありながら誤操作の起こりにくい入力が可能となる。具体的な特徴によれば、前記入力制御部は、前記検知部が検知する2点タッチ位置の平行移動の移動量に基づいて情報を入力する。また他の具体的な特徴によれば、前記入力制御部は、前記検知部が検知する2点タッチ位置の平行移動の移動速度に基づいて情報を入力する。これらの具体的構成は、簡単な操作でありながら、人間の感覚に合致した操作を実現することができるので、豊富な情報入力を行うのに好適である。
 他の特徴によれば、タッチパネルと、前記タッチパネルへの1点タッチ状態および2点同時タッチ状態を検知する検知部と、前記検知部が検知する1点タッチ位置に基づき情報を入力する第1モードと前記検知部が検知する2点タッチ位置に基づき情報を入力する第2モードがある入力制御部とを有するタッチパネル入力装置が提供される。これによって入力の容易さ及び入力情報量を勘案して種々の状況に応じた入力を行うことができる。
 具体的な特徴によれば、前記タッチパネルは車両に搭載されるカーナビゲーション装置の表示および入力手段として構成され、前記第1モードは走行中の情報入力用として活用されるとともに前記第2モードは停車中の情報入力用として活用される。また、前記タッチパネルを車両に搭載されるカーナビゲーション装置の表示および入力手段として構成する際の他の具体的な特徴によれば、前記第1モードは運転者による情報入力用として活用されるとともに前記第2モードは同乗者による情報入力用として活用される。いずれの場合も前記第1モードは危険を防止する入力として好適であり、前記第2モードは情報量の多い入力として好適である。
 上記のように、本明細書中に開示されている第3の技術的特徴によれば、多点の検知が可能なタッチパネルを活用した実用的なタッチパネル入力装置を提供することができる。
<第4の技術的特徴>
 本明細書中に開示された第4の技術的特徴は、デジタルカメラに関するものである。そして、第4の技術的特徴が解決しようとする課題は、操作の容易なデジタルカメラを提供することにある。
 上記課題を解決するため、本明細書中に開示されている第4の技術的特徴は、表示およびタッチパネル機能を備えたタッチパネル表示画面と、ズームレンズと、前記ズームレンズによる光学像を撮像しデジタル画像を得る撮像部と、前記撮像部によって得られたデジタル画像を前記タッチパネル表示画面に表示する表示制御部と、前記タッチパネル表示画面への2点同時タッチ状態を検知するタッチ位置検知部と、前記タッチ位置検知部が検知する2点タッチ位置に基づき前記ズームレンズを駆動するズーム制御部とを有するデジタルカメラを提供する。これによってタッチ操作による容易なズーム操作が可能となる。
 具体的な特徴によれば、前記ズーム制御部は、前記タッチ位置検知部が検知する2点タッチ位置の相対間隔に基づいて前記ズームレンズを駆動する。これによって、タッチの絶対位置に依存しない容易なズーム操作が可能となる。より具体的な特徴によれば、前記ズーム制御部は、前記タッチ位置検知部が検知する2点タッチ位置の水平方向の相対間隔に基づいて前記ズームレンズを駆動する。これによって、例えばデジタルカメラを持つ両手の親指によりズーム操作を行うことなどが可能となる。
 さらに具体的な特徴によれば、重力方向検知部を有し、前記ズーム制御部は前記重力方向検知部の検知に基づいて前記タッチ位置検知部が検知する2点タッチ位置の水平方向の相対間隔を判断する。これによって矩形画面のデジタルカメラを横位置撮影状態にて両手で構えたときも、縦位置撮影状態にて両手で構えたときも、デジタルカメラを持つ両手の親指の同じ操作によりズーム操作を行うことなどが可能となる。
 他の具体的な特徴によれば、前記ズーム制御部は、前記タッチ位置検知部が検知する2点タッチ位置の相対間隔に基づいてズーム量を決定する。これによってズーム目的倍率を容易に設定することなどが可能となる。また、他の具体的な特徴によれば、前記ズーム制御部は、前記タッチ位置検知部が検知する2点タッチ位置の相対間隔変化に基づいてズーム方向を決定する。これによって、デジタルカメラを両手で保持した姿勢等において容易にズームアップおよびズームダウンを行うことができる。またさらに他の具体的な特徴によれば、前記ズーム制御部は、前記タッチ位置検知部が検知する2点タッチ位置の相対間隔変化量または相対間隔変化速度に基づいてズーム量を決定する。これによって感覚的に容易にズーム量を決定することができる。
 他の具体的な特徴によれば、前記ズーム制御部は、前記タッチ位置検知部が検知する2点タッチ位置の相対間隔変化に追随して前記ズームレンズを駆動する。これによって、タッチする指の動きに追随したズーム操作が可能となり、例えば動画撮影中のズーミングに好適なズーム操作手段を提供することができる。
 他の具体的な特徴によれば、前記ズーム制御部は、前記タッチパネル表示画面が検知する1点タッチから2点同時タッチ状態への検知経過に基づいて2点同時タッチをズーム操作として識別する。これによって、厳密に同時に2点にタッチできずに多少のずれがあったとしても同時タッチの意図に基づいた通常間隔の操作で容易にズーム操作を行うことができる。
 他の具体的な特徴によれば、前記ズーム制御部は、前記タッチ位置検知部が検知する1点タッチから2点同時タッチ状態への検知経過に基づき、2点同時タッチ状態の成立をズーム操作であるかシャッタレリーズ操作であるか識別する。この検知経過の差の例は、例えば1点タッチ後2点タッチ状態が成立するまでの時間間隔の差であり、このような差により2点同時タッチを意図したズーム操作か、または1点目タッチを継続して意図的にその後に行った2点目のタッチによるシャッタレリーズ操作かを識別することができる。
 他の特徴によれば、表示およびタッチパネル機能を備えたタッチパネル表示画面と、レンズと、前記レンズによる光学像を撮像しデジタル画像を得る撮像部と、前記撮像部によって得られたデジタル画像を前記タッチパネル表示画面に表示する表示制御部と、前記タッチパネル表示画面への2点同時タッチ状態を検知するタッチ位置検知部と、画像記憶部と、前記タッチ位置検知部が検知する2点同時タッチ状態に基づき前記撮像部の画像を前記画像記憶部に記憶する撮像制御部とを有するデジタルカメラを提供する。これによって、タッチパネル操作により意図した撮像を行うことができる。例えば、前記撮像制御部は、前記タッチ位置検知部が検知する1点タッチを被写体部分の指定と認識するとともに2点同時タッチ状態の検知により前記撮像部の取得した画像を前記画像記憶部に記憶することができる。
 他の特徴によれば、表示およびタッチパネル機能を備えたタッチパネル表示画面と、ズームレンズと、前記ズームレンズによる光学像を撮像しデジタル画像を得る撮像部と、前記撮像部の得た画像の一部を拡大する電子ズーム処理部と、前記電子ズーム処理部によって処理されたデジタル画像を前記タッチパネル表示画面に表示する表示制御部と、前記タッチパネル表示画面へのタッチ状態を検知するタッチ位置検知部と、前記タッチ位置検知部の検知基づき前記ズームレンズおよび前記電子ズーム処理部を制御するズーム制御部とを有するデジタルカメラが提供される。これによって、光学ズームと電子ズームが可能なデジタルカメラにおけるズーム操作を前記タッチパネル表示画面から容易に行うことができる。具体的な特徴によれば、前記ズーム制御部は、前記タッチ位置検知部の検知に基づいて前記電子ズーム処理部を制御する際、ズーム終了時にズーム速度を減速する。
 他の特徴によれば、表示画面と、ズームレンズと、前記ズームレンズによる光学像を撮像しデジタル画像を得る撮像部と、前記撮像部の得た画像の一部を拡大する電子ズーム処理部と、前記電子ズーム処理部によって処理されたデジタル画像を表示画面に表示する表示制御部と、前記ズームレンズおよび前記電子ズーム処理部を制御するとともに前記電子ズーム処理部を制御する際、電子ズーム終了時にズーム速度を減速するズーム制御部とを有するデジタルカメラが提供される。これによって電子ズームと光学制御の間の違和感のないズーム制御が可能となる。具体的な特徴によれば、前記ズーム制御部は、前記電子ズーム処理部の制御に続いて前記ズームレンズを制御する場合、電子ズーム終了時のズーム速度減速を行わない。これによって電子ズームと光学ズームとの間のズーム終了時の違和感を軽減しつつ電子ズームに光学ズームが継続する際の移行をスムーズに行うことができる。
 上記のように、本明細書中に開示されている第4の技術的特徴によれば、操作の容易なデジタルカメラを提供することができる。
<第5の技術的特徴>
 本明細書中に開示された第5の技術的特徴は、デジタルカメラに関するものである。そして、第5の技術的特徴が解決しようとする課題は、操作の容易なデジタルカメラを提供することにある。
 上記課題を解決するため、本明細書中に開示されている第5の技術的特徴は、ズームレンズと、前記ズームレンズの光軸と平行な表示およびタッチパネル機能を備えたタッチパネル表示画面と、前記ズームレンズによる光学像を撮像しデジタル画像を得る撮像部と、前記撮像部によって得られたデジタル画像を前記タッチパネル表示画面に表示する表示制御部と、前記タッチパネル表示画面へのタッチ状態を検知するタッチ位置検知部と、前記タッチ位置検知部が検知するタッチ位置に基づく制御を行う制御部とを有するデジタルカメラを提供する。このような前記ズームレンズの光軸と前記タッチパネル表示画面を平行とした配置により、相応の光学系全長を必要とするズームレンズを薄型のデジタルカメラボディに納めることができる。
 具体的な特徴によれば、前記制御部は、前記タッチ位置検知部が前記タッチパネル表示画面上のタッチ位置のスライドを検知したとき前記ズームレンズの駆動を制御する。前記ズームレンズの光軸と前記タッチパネル表示画面を平行とした配置は、前記ズームレンズの光軸と平行な面上の動きにより前記ズームレンズの駆動操作を行うことを可能とし、光軸に垂直な方向の動きの操作によるカメラブレを避けることができる。より具体的な特徴によれば、前記制御部は、前記タッチ位置検知部が前記ズームレンズの光軸と平行な方向におけるタッチ位置のスライドを検知したとき前記ズームレンズの駆動を制御する。さらに具体的な特徴によれば、前記制御部は、前記タッチ位置検知部が前記ズームレンズの光軸と平行な前方へのタッチ位置の移動を検知したとき前記ズームレンズにズームアップを行わせ、光軸と平行な後方へのタッチ位置の移動を検知したとき前記ズームレンズにズームダウンを行わせる。これらの特徴により、直感的にわかりやすいズーム操作が可能となる。
 他の具体的な特徴によれば、前記制御部は、前記タッチ位置検知部による2点の同時タッチ状態の検知に基づきシャッタレリーズを行わせる。これによって、誤操作を避けつつ自然な流れの中でのシャッタレリーズ操作を行うことができる。より具体的な特徴によれば、前記制御部は、前記タッチ位置検知部による2点同時タッチ検知状態において少なくともその一方の移動を検知したときシャッタレリーズを行わせる。これによってより誤操作の可能性を減少することが可能となるとともに、前記ズームレンズの光軸と平行な面上の動きによるシャッタレリーズにより、光軸に垂直な方向の動きの操作によるシャッタレリーズの際のカメラブレを避けることができる。
 他の特徴によれば、ズームレンズと、表示およびタッチパネル機能を備えたタッチパネル表示画面と、前記ズームレンズによる光学像を撮像しデジタル画像を得る撮像部と、前記撮像部によって得られたデジタル画像を前記タッチパネル表示画面に表示する表示制御部と、前記タッチパネル表示画面上へのタッチ状態を検知するタッチ位置検知部と、前記タッチ位置検知部によるタッチ位置のスライド検知に基づき所定の制御を行う制御部とを有することを特徴とするデジタルカメラが提供される。このようなタッチ位置のスライド検知に基づく操作は、前記タッチパネル表示画面に垂直な衝撃を与えるタッチ時点の操作によるものに較べ、カメラブレの防止や誤操作防止の上でより有益なものである。
 具体的な特徴によれば、前記制御部は、前記タッチ位置検知部が前記タッチパネル表示画面上のタッチ位置のスライドを検知したときズームレンズの駆動を制御する。より具体的には、前記制御部は、前記タッチ位置検知部が前記ズームレンズの光軸と平行な方向におけるタッチ位置のスライドを検知したとき前記ズームレンズの駆動を制御する。これにより、直感的にわかりやすいズーム操作が可能となる。他のより具体的な特徴によれば、前記制御部は、前記タッチ位置検知部が前記タッチパネル表示画面上のタッチ位置のスライドを検知したときシャッタレリーズを行わせる。これによって、誤操作の可能性を減少することが可能となるとともに、前記タッチパネル表示画面上の指の動きによるシャッタレリーズにより、カメラブレの可能性を減少させることができる。
 他の特徴によれば、撮像光学系と、表示画面と、前記撮像光学系による光学像を撮像しデジタル画像を得る撮像部と、前記撮像部によって得られたデジタル画像を前記表示画面に表示する表示制御部と、重力検知部と、前記撮像部によって得られたデジタル画像を記憶する記憶部と、前記重力検知部が検知する前記撮像光学系の光軸方向に関する情報を前記デジタル画像に付加して前記記憶部に記憶させる記憶制御部とを有するデジタルカメラを提供する。このように、デジタルカメラの撮影方向の情報をデジタル画像に付加して記憶することにより、デジタル画像の鑑賞時の有益な情報とすることができる。
 具体的な特徴によれば、デジタルカメラはさらに、前記重力検知部が検知する前記表示画面の向きに関する情報を前記デジタル画像に付加して前記記憶部に記憶させる記憶制御部を有する。これによって特に光軸が水平に近い時において、このような状態にある光軸方向の情報と前記表示画面の向きの情報を組み合わせることにより光軸周りの表示画面の角度情報をデジタル画像の鑑賞時の有益な情報とすることができる。
 より具体的には、前記記憶制御部は、前記重力検知部が検知する前記撮像光学系の光軸方向および前記表示画面の向きに関する情報を横長画面撮影情報および縦長画面撮影情報のうちの一つとしてデジタル画像に付加する。これによって、例えばデジタル画像をデジタルフォトフレームで再生する際に、横長画面撮影であっても縦長画面撮影であっても情報画像を自動的に正立状態で再生することができる。
 他の具体的な特徴によれば、前記記憶制御部は、前記重力検知部が検知する前記撮像光学系の光軸方向に関する情報を画面の天地情報としてデジタル画像に付加する。これによって、例えばデジタル画像をデジタルフォトフレームで再生する際に、特に縦長画面撮影を行ったときに通常の横長画面撮影状態からデジタルカメラを右に90度傾けた場合の撮影であっても左に90度傾けた場合の撮影であっても、情報画像を自動的に正立状態で再生することができる。
 より具体的な特徴によれば、前記撮像光学系の光軸が前記表示画面と平行となるよう構成される。このような構成はいわゆるウエストレベルの撮影に適しているが、前記表示画面が水平に近い状態で撮影を行う限り、横長画面撮影と縦長画面撮影を使い分けて撮影をすることができない。そして、例えば前記表示画面が水平に近い状態で横長画面撮影を行っていたとすると、縦長画面撮影を行うには前記表示画面を垂直に近い状態に傾ける必要が生じる。従って、重力加速度検知による光軸方向に関する情報および前記表示画面の向きに関する情報は、これら種々の状況で撮影されたデジタル画像の正立方向を示す情報として有益なものとなる。
 上記のように、本明細書中に開示されている第5の技術的特徴によれば、操作の容易なデジタルカメラを提供することができる。
<第6の技術的特徴>
 本明細書中に開示された第6の技術的特徴は、2点検知可能なタッチパネル入力装置に関するものである。そして、第6の技術的特徴が解決しようとする課題は、2点検知可能なタッチパネルを活用した実用的なタッチパネル入力装置を提供することにある。
 上記課題を解決するため、本明細書中に開示されている第6の技術的特徴は、表示およびタッチパネル機能を備えたタッチパネル表示画面と、前記タッチパネル表示画面上に同時にタッチされる2点の位置の第1方向成分の相対位置関係、前記第1方向成分とは異なる第2方向成分の相対位置関係および2点のタッチに関する時間情報に基づき情報入力を行う入力制御部とを有することを特徴とする2点検知可能なタッチパネル入力装置を提供する。これによって、2点検知能力を生かした情報入力が可能となる。具体的な特徴によれば前記タッチパネル表示画面は矩形形状を有し、前記第1方向成分は矩形形状の一辺に平行な方向であるとともに、前記第2方向成分はこの一辺に垂直な他の一辺に平行な方向である。
 他の具体的な特徴によれば、前記入力制御部は、同時刻における2点の第1方向成分および第2方向成分の一方における相対的大小関係に基づき入力制御を行う。これによって例えば2点の上下関係または左右関係に基づく入力が可能となり、さらにこれらの関係は相対的なので厳密な2点の絶対位置に依存しない入力が可能となる。
 他の具体的な特徴によれば、前記入力制御部は、同時刻における2点間の相対距離に基づき入力制御を行う。これによって方向によらない2点の距離に基づく入力が可能となり、さらに相対距離が情報なので厳密な2点の絶対位置に依存しない入力が可能となる。
 より具体的な特徴によれば、上記同時刻における2点の第1方向成分および第2方向成分の一方または2点間の相対距離に基づく前記入力制御部の入力は、所定時間2点の位置が変化しないときに確定される。これにより、誤って2点をタッチしたときの想定外の入力を防止し、意図的に所定時間だけ2点のタッチ位置を動かさずに維持したときに入力を行うようにすることができる。
 他の特徴によれば、前記入力制御部は、2点の絶対位置およびこの絶対位置からの時間経過に従う2点の相対位置変化に基づき、2点の絶対位置の組み合わせに基づく入力を行う。これによって、入力情報を決定する2点の絶対位置の組み合わせおよびその入力の実行を確実に行うことができる。より具体的な特徴によれば、前記入力制御部は、1点目を支点として2点目位置が変化する時、これを前記時間経過に従う2点の相対位置変化として検知する。
 他の特徴によれば、前記入力制御部は、所定時間内に2点のタッチを検知したとき2点タッチに基づく入力制御を行うとともに1点目のタッチ検知から2点目のタッチを検知する時間が所定時間を越えるとき2点タッチに基づく入力制御とは異なる入力制御を行う。これによって、厳密に2点を同時にタッチしなくても2点タッチに基づく入力を行えるとともに、1点目タッチと2点目タッチで2点同時タッチとは別の入力を行うことができる。より具体的には、前記入力制御部は、1点目のタッチ検知から2点目のタッチを検知する時間が所定時間を越えるとき2点目のタッチに基づき前記1点目のタッチの入力制御とは異なる入力制御を行う。なお、2点タッチと看做す所定時間と2点目タッチで1点目タッチとは別の入力を行うための所定時間を異なるよう設定すれば誤操作を排除してより操作者の意図に沿った入力を行うことができる。
 本発明の他の特徴によれば、前記入力制御部は、2点の時間経過に従う平行移動の検知に基づいて2点タッチに基づく入力制御を行う。これによって手に操作上の負担をかけない状態で、2点操作による入力を行うことができる。より具体的な特徴によれば、前記入力制御部は、同時刻における2点の相対位置および時間経過に従う平行移動の検知に基づいて2点タッチに基づく入力制御を行う。これによって、入力情報を決定する2点の相対位置情報およびその入力の実行を確実に行うことができる。
 他の特徴によれば、前記入力制御部は、時間経過に伴う2点の第1成分および第2成分の一方の相対関係の変化に基づいて入力制御を行う。これによって、2点の2次元的な位置が厳密でなくても1次元的な前記第1方向成分および前記第2方向成分の一方の相対関係の変化により容易に入力をおこなうことができる。
 他の特徴によれば、前記入力制御部は、時間経過に伴う2点の前記第1方向成分の相対関係の変化方向と時間経過に伴う2点の前記第2方向成分の相対関係の変化方向が逆であることに基づいて入力制御を行う。これによって2点のタッチ位置をねじる動作による入力を行うことができる。
 上記2点のタッチ位置のねじり動作検知のより具体的な例として、前記入力制御部は、時間経過に伴う2点の前記第1方向成分の相対関係の変化方向と時間経過に伴う2点の前記第2方向成分の相対関係の変化方向が逆であるとき円の入力制御を行う。これによって2つの指により円弧を描く自然な動作により円の入力を行うことができる。さらに具体的な特徴によれば、前記入力制御部は、所定時点でタッチされている2点の相対距離を円の直径とする。これにより、例えばまず2点にタッチすることで直径を決めた後は大まかに短い円弧を描くことによって円の入力が可能となる。これは1点で円を描いて入力するよりも極めて効率的で容易な入力手段となる。
 上記のように、本明細書中に開示されている第6の技術的特徴によれば、種々の有用な情報入力が可能でかつ操作が直感的かつ容易なタッチパネル入力装置を提供することができる。
 本発明は、例えば、車両のナビゲーション装置に搭載されるタッチパネル入力装置や、デジタルカメラなどに搭載されるタッチパネル入力装置(例えば、デジタルカメラのズーム操作などを行うためのタッチパネル入力装置)に適用することができる。また、本発明は、タッチパネル入力装置を備えたデジタルカメラ等に適用することができる。
   12 タッチパネル
   4、204、404 入力制御部
   12、212 タッチパネル(タッチパネル表示画面)
   4、10、204、210、404 表示制御部
   4、204 検知部
   4 識別部
   64 文字の子音
   66 文字の母音
   76 テンキー表示
   2 カーナビゲーション装置
   470、404 ズーム制御部
   472 重力方向検知部
   258 画像記憶部
   204、404 撮像制御部
   256、404 電子ズーム処理部
   252、452、652 レンズ(ズームレンズ)
   653 光軸
   612 タッチパネル表示面
   254 撮像部
   404、210 表示制御部
   212、404 タッチ位置検知部
   404 制御部
   472 重力方向検知部
   258 記憶部
   404 記憶制御部
   252、452、652 撮像光学系
   212、612 表示画面

Claims (14)

  1.  タッチパネルと、右手指の配置に適した右手用2点タッチ入力検知態様と左手指の配置に適した左手用2点タッチ入力検知態様が切り換え可能であり、そのいずれかの入力検知態様において前記タッチパネルへの2点タッチを検知する入力制御部とを有することを特徴とするタッチパネル入力装置。
  2.  前記タッチパネルは表示およびタッチパネル機能を備えたタッチパネル表示画面として構成されるとともに、前記右手用2点タッチ入力検知態様と前記左手用2点タッチ入力検知態様にそれぞれ対応して右手指の配置に適した右手用2点タッチ入力画面と左手指の配置に適した左手用2点タッチ入力画面をそれぞれ前記タッチパネル表示画面に提供する表示制御部を有することを特徴とする請求項1記載のタッチパネル入力装置。
  3.  前記入力制御部は、前記右手用2点タッチ入力検知態様では2点を結ぶ線が左下がりとなる2点の検知に基づいて入力を行うとともに前記左手用2点タッチ入力検知態様では2点を結ぶ線が右下がりとなる2点の検知に基づいて入力を行うことを特徴とする請求項1または2記載のタッチパネル入力装置。
  4.  前記入力制御部は、識別情報に基づいて前記右手用2点タッチ入力検知態様と前記左手用2点タッチ入力検知態様を切り換えることを特徴とする請求項1から3のいずれかに記載のタッチパネル入力装置。
  5.  前記入力制御部は、検知される2点を結ぶ線が左下がりとなるか右下がりとなるかを前記識別情報とすることを特徴とする請求項4記載のタッチパネル入力装置。
  6.  前記入力制御部は、前記右手用2点タッチ入力検知態様と前記左手用2点タッチ入力検知態様において2点検知情報に基づいて異なる入力を行うことを特徴とする請求項1から5のいずれかに記載のタッチパネル入力装置。
  7.  前記入力制御部は、前記右手用2点タッチ入力検知態様と前記左手用2点タッチ入力検知態様のいずれか一方においては前記2点検知情報に基づいて両者間の相対位置情報を入力し、他方においては2点それぞれの絶対位置情報を入力することを特徴とする請求項6記載のタッチパネル入力装置。
  8.  表示およびタッチパネル機能を備えたタッチパネル表示画面と、右手指の配置に適した右手用2点タッチ用入力画面と左手指の配置に適した左手用2点タッチ用入力画面をそれぞれ前記タッチパネル表示画面に提供する表示制御部と、前記タッチパネル表示画面への2点タッチを検知する検知部とを有することを特徴とするタッチパネル入力装置。
  9.  前記表示制御部は、前記検知部が検知する2点を結ぶ線が左下がりとなる2点の検知に基づいて前記右手用2点タッチ入力画面を提供するとともに、前記検知部が検知する2点を結ぶ線が右下がりとなる2点の検知に基づいて前記左手用2点タッチ入力画面を提供することを特徴とする請求項8記載のタッチパネル入力装置。
  10.  タッチパネルと、前記タッチパネルへの2点タッチを検知する検知部と、前記検知部により検知される2点を結ぶ線が左下がりとなるか右下がりとなるかを識別する識別部とを有することを特徴とするタッチパネル入力装置。
  11.  前記識別部に応じ、検知される2点を結ぶ線が左下がりとなるか右下がりとなるかで検知される2点に基づいて異なる入力を行う入力制御部を有することを特徴とする請求項10記載のタッチパネル入力装置。
  12.  前記入力制御部は、前記識別部に応じ、検知される2点を結ぶ線が左下がりとなるか右下がりとなる場合のいずれか一方においては2点検知情報に基づいて両者間の相対位置情報を入力し、他方においては2点それぞれの絶対位置情報を入力することを特徴とする請求項11記載のタッチパネル入力装置。
  13.  前記入力制御部は、前記識別部に応じ、検知される2点を結ぶ線が左下がりとなるか右下がりとなる場合のいずれか一方において所定の入力を禁止することを特徴とする請求項11または12記載のタッチパネル入力装置。
  14.  前記タッチパネルは表示およびタッチパネル機能を備えたタッチパネル表示画面として構成されるとともに、前記識別部に応じ、検知される2点を結ぶ線が左下がりとなるか右下がりとなる場合のいずれか一方において前記タッチパネル表示画面における所定の表示を禁止する表示画制御部を有することを特徴とする請求項10から13のいずれかに記載のタッチパネル入力装置。
PCT/JP2011/053347 2010-02-18 2011-02-17 タッチパネル入力装置 Ceased WO2011102406A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/579,378 US9250800B2 (en) 2010-02-18 2011-02-17 Touch-panel input device
CN2011800196740A CN102844732A (zh) 2010-02-18 2011-02-17 触摸板输入装置
US14/978,082 US9760280B2 (en) 2010-02-18 2015-12-22 Touch-panel input device

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
JP2010033557A JP5702540B2 (ja) 2010-02-18 2010-02-18 タッチパネル入力装置
JP2010-033557 2010-02-18
JP2010061817A JP2011197848A (ja) 2010-03-18 2010-03-18 タッチパネル入力装置
JP2010-061817 2010-03-18
JP2010-063751 2010-03-19
JP2010063751A JP5702546B2 (ja) 2010-03-19 2010-03-19 タッチパネル入力装置
JP2010-085948 2010-04-02
JP2010085948A JP2011215539A (ja) 2010-04-02 2010-04-02 デジタルカメラ
JP2010096851A JP2011227703A (ja) 2010-04-20 2010-04-20 2点検知可能なタッチパネル入力装置
JP2010-096851 2010-04-20
JP2010-100795 2010-04-26
JP2010100795A JP5502584B2 (ja) 2010-04-26 2010-04-26 デジタルカメラ

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/579,378 A-371-Of-International US9250800B2 (en) 2010-02-18 2011-02-17 Touch-panel input device
US14/978,082 Continuation US9760280B2 (en) 2010-02-18 2015-12-22 Touch-panel input device

Publications (1)

Publication Number Publication Date
WO2011102406A1 true WO2011102406A1 (ja) 2011-08-25

Family

ID=44482992

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/053347 Ceased WO2011102406A1 (ja) 2010-02-18 2011-02-17 タッチパネル入力装置

Country Status (3)

Country Link
US (2) US9250800B2 (ja)
CN (1) CN102844732A (ja)
WO (1) WO2011102406A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013068671A (ja) * 2011-09-20 2013-04-18 Canon Inc 撮像装置及びその制御方法、プログラム、並びに記憶媒体
US20130127728A1 (en) * 2011-11-18 2013-05-23 Samsung Electronics Co., Ltd. Method and apparatus for inputting character in touch device
EP2600234A4 (en) * 2011-08-31 2013-07-10 Rakuten Inc DATA PROCESSING DEVICE, METHOD FOR CONTROLLING THE DATA PROCESSING DEVICE, PROGRAM AND DATA STORAGE MEDIUM
CN103533217A (zh) * 2012-07-02 2014-01-22 奥林巴斯映像株式会社 摄像装置、摄像方法
CN104536664A (zh) * 2014-12-25 2015-04-22 深圳市金立通信设备有限公司 一种快门位置确定方法
JP2015097126A (ja) * 2015-02-10 2015-05-21 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
WO2015083267A1 (ja) * 2013-12-05 2015-06-11 三菱電機株式会社 表示制御装置及び表示制御方法
EP2824545A4 (en) * 2012-03-06 2015-11-11 Nec Corp END DEVICE AND METHOD FOR CONTROLLING THE TERMINAL
CN108182002A (zh) * 2018-01-30 2018-06-19 北京小米移动软件有限公司 输入键的布局方法、装置、设备和存储介质
EP4593366A3 (en) * 2012-03-06 2025-09-24 Apple Inc. Application for viewing images

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8768286B2 (en) * 2001-10-24 2014-07-01 Mouhamad Ahmad Naboulsi Hands on steering wheel vehicle safety control system
US9678662B2 (en) * 2010-04-23 2017-06-13 Handscape Inc. Method for detecting user gestures from alternative touchpads of a handheld computerized device
US9202297B1 (en) * 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
US10001898B1 (en) 2011-07-12 2018-06-19 Domo, Inc. Automated provisioning of relational information for a summary data visualization
US10191641B2 (en) 2011-12-29 2019-01-29 Apple Inc. Device, method, and graphical user interface for navigation of information in a map-based interface
CA2793763C (en) * 2012-05-24 2015-12-29 Research In Motion Limited Presentation of image on display screen with combination crop and rotation and with auto-resizing of crop field
CN103729128B (zh) 2012-10-10 2017-12-22 腾讯科技(深圳)有限公司 一种摄像设备变换焦距的方法及装置
US8990734B2 (en) * 2012-10-15 2015-03-24 Nextep Systems, Inc. Method and assembly for displaying menu options
US8806384B2 (en) 2012-11-02 2014-08-12 Google Inc. Keyboard gestures for character string replacement
JP6007377B2 (ja) * 2012-11-14 2016-10-12 ピーアンドダブリューソリューションズ株式会社 座席レイアウト表示装置、方法及びプログラム
US9280523B2 (en) * 2013-01-23 2016-03-08 Go Daddy Operating Company, LLC System for conversion of website content
CN103970328B (zh) * 2013-02-05 2016-12-28 株式会社理光 触摸式或非触摸式的多输入点控制指令检测方法和装置
US11422695B2 (en) * 2013-03-27 2022-08-23 Texas Instruments Incorporated Radial based user interface on touch sensitive screen
EP2796949A1 (fr) * 2013-04-24 2014-10-29 ETA SA Manufacture Horlogère Suisse Procede de manipulation d'un appareil electronique
JP5765372B2 (ja) 2013-06-18 2015-08-19 コニカミノルタ株式会社 表示装置、表示装置の制御方法、および表示装置の制御プログラム
JP2015011000A (ja) * 2013-07-02 2015-01-19 クラリオン株式会社 ナビゲーション装置、タッチ操作受付方法およびタッチ操作受付プログラム
US9910660B2 (en) * 2013-08-05 2018-03-06 Harman International Industries, Incorporated Operating system replacement for in-vehicle computing system
CN104423855B (zh) * 2013-08-26 2019-01-15 联想(北京)有限公司 一种信息处理方法及电子设备
JP6081324B2 (ja) * 2013-09-05 2017-02-15 シャープ株式会社 操作入力装置、携帯型情報端末、操作入力装置の制御方法、プログラム、及び記録媒体
US9471150B1 (en) * 2013-09-27 2016-10-18 Emc Corporation Optimized gestures for zoom functionality on touch-based device
JP6257255B2 (ja) * 2013-10-08 2018-01-10 キヤノン株式会社 表示制御装置及び表示制御装置の制御方法
KR101611205B1 (ko) * 2013-11-11 2016-04-11 현대자동차주식회사 디스플레이 장치, 디스플레이 장치가 설치된 차량 및 디스플레이 장치의 제어 방법
WO2015167511A2 (en) * 2014-04-30 2015-11-05 Empire Technology Development Llc Adjusting tap position on touch screen
RU2632422C2 (ru) * 2015-04-24 2017-10-04 Общество С Ограниченной Ответственностью "Яндекс" Способ и устройство для обработки пользовательского ввода
JP6608196B2 (ja) * 2015-06-30 2019-11-20 キヤノン株式会社 情報処理装置、情報処理方法
KR102357378B1 (ko) * 2015-07-07 2022-02-03 삼성디스플레이 주식회사 영상 처리 장치 및 이를 포함하는 표시 장치
KR20170014764A (ko) * 2015-07-31 2017-02-08 삼성전자주식회사 화면 제어 방법 및 이를 지원하는 전자 장치
JP6627352B2 (ja) * 2015-09-15 2020-01-08 カシオ計算機株式会社 画像表示装置、画像表示方法及びプログラム
KR102479448B1 (ko) * 2015-11-03 2022-12-21 삼성전자주식회사 전자 장치 및 그의 동작 방법
CN107291281B (zh) * 2016-03-31 2020-06-23 日本电气株式会社 感应检测方法和装置
CN107294521B (zh) * 2016-03-31 2020-08-21 日本电气株式会社 感应检测方法和装置
CN105872542B (zh) * 2016-05-27 2019-02-15 北京金山安全软件有限公司 一种图像压缩方法、装置及电子设备
JP6614087B2 (ja) 2016-10-06 2019-12-04 トヨタ自動車株式会社 車両用操作装置
CN108614644A (zh) * 2016-12-12 2018-10-02 苏州乐聚堂电子科技有限公司 带显示屏的触摸板及其快捷操作方法
JP2018124651A (ja) * 2017-01-30 2018-08-09 セイコーエプソン株式会社 表示システム
US10558341B2 (en) * 2017-02-20 2020-02-11 Microsoft Technology Licensing, Llc Unified system for bimanual interactions on flexible representations of content
US10684758B2 (en) 2017-02-20 2020-06-16 Microsoft Technology Licensing, Llc Unified system for bimanual interactions
KR102316024B1 (ko) * 2017-03-02 2021-10-26 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
US10656780B2 (en) 2018-01-12 2020-05-19 Mitutoyo Corporation Position specifying method and program
US10761674B2 (en) * 2018-01-18 2020-09-01 Honeywell International Inc. Systems and methods for providing user-manipulated primary flight display (PFD) data onboard an aircraft
CN108317704A (zh) * 2018-03-19 2018-07-24 珠海格力电器股份有限公司 空调器
CN109144360B (zh) * 2018-05-31 2021-04-23 北京小米移动软件有限公司 屏幕点亮方法、电子设备和存储介质
US20200150779A1 (en) * 2018-11-14 2020-05-14 Nimisha Jain Keyboard
CN109675300B (zh) * 2019-01-24 2023-03-14 吴宏琴 基于游戏场景的防误触方法、移动终端及存储介质
CN109847334B (zh) * 2019-01-24 2023-03-17 吴宏琴 基于游戏场景的防误触方法及移动终端
CN109847345B (zh) * 2019-01-24 2023-03-14 吴宏琴 基于游戏场景的防误触方法及移动终端
CN110032326A (zh) * 2019-03-29 2019-07-19 网易(杭州)网络有限公司 移动终端显示画面的控制方法、装置、设备和存储介质
JP7297567B2 (ja) * 2019-07-05 2023-06-26 キヤノン株式会社 通信装置、宛先選択方法、宛先表示方法、及びプログラム
KR102704317B1 (ko) * 2019-08-07 2024-09-05 엘지전자 주식회사 가열 장치 및 가열 장치의 제어 방법
US11951833B1 (en) * 2021-05-16 2024-04-09 Ambarella International Lp Infotainment system permission control while driving using in-cabin monitoring

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027183A (ja) * 2006-07-21 2008-02-07 Sharp Corp 情報処理装置
JP2009276926A (ja) * 2008-05-13 2009-11-26 Ntt Docomo Inc 情報処理装置及び情報処理装置の表示情報編集方法

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63115147A (ja) 1986-10-31 1988-05-19 Canon Inc カメラ
JPH04287117A (ja) 1991-03-18 1992-10-12 Fujitsu Ltd 左きき者用マンマシンインタフェース方式
JPH0566888A (ja) 1991-09-09 1993-03-19 Matsushita Electric Ind Co Ltd タツチパネル装置
JPH0638083A (ja) 1992-07-16 1994-02-10 Canon Inc ビデオカメラ
JPH0854976A (ja) 1994-08-10 1996-02-27 Matsushita Electric Ind Co Ltd 抵抗膜方式タッチパネル
JPH08179868A (ja) 1994-12-27 1996-07-12 Misawa Homes Co Ltd キー入力装置
JPH08184449A (ja) 1994-12-28 1996-07-16 Aqueous Res:Kk 操作制限装置
KR100261606B1 (ko) 1997-06-30 2000-07-15 이중구 원격 통신이 가능한 디지탈 스틸 카메라
JPH11143604A (ja) 1997-11-05 1999-05-28 Nec Corp 携帯端末装置
US20070177804A1 (en) 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
JPH11212726A (ja) 1998-01-29 1999-08-06 Omron Corp 入力装置
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
JP2000330946A (ja) 1999-05-17 2000-11-30 Casio Comput Co Ltd 機能切換装置およびそのプログラム記録媒体
JP2001060143A (ja) 1999-08-24 2001-03-06 Kenwood Corp 抵抗膜式タッチパネル
JP2001134382A (ja) 1999-11-04 2001-05-18 Sony Corp 図形処理装置
JP2001160950A (ja) 1999-12-02 2001-06-12 Nippon Telegr & Teleph Corp <Ntt> 画像記録再生方法及び記録媒体並びに画像記録再生システム
JP4803883B2 (ja) 2000-01-31 2011-10-26 キヤノン株式会社 位置情報処理装置及びその方法及びそのプログラム。
AU2001252242A1 (en) 2000-03-31 2001-10-08 Glenn Rolus Borgward Universal digital mobile device
JP3893323B2 (ja) 2002-05-31 2007-03-14 株式会社ケンウッド ナビゲーションの入力表示装置及びナビゲーションの入力表示方法
JP2004333872A (ja) 2003-05-08 2004-11-25 Fuji Photo Film Co Ltd カメラ
JP2004343476A (ja) 2003-05-16 2004-12-02 Sony Corp 撮像装置、撮像結果の処理装置及び撮像結果の処理方法
WO2005022372A1 (en) 2003-08-29 2005-03-10 Nokia Corporation Method and device for recognizing a dual point user input on a touch based user input device
JP2005277470A (ja) 2004-03-22 2005-10-06 Toshiba Corp 撮影表示装置および撮影画像表示処理プログラム
JP2006064547A (ja) 2004-08-27 2006-03-09 Victor Co Of Japan Ltd 車両用ナビゲーション装置
JP2006085370A (ja) 2004-09-15 2006-03-30 Fuji Photo Film Co Ltd 指示入力システム及び指示入力方法
JP5210497B2 (ja) 2006-04-12 2013-06-12 クラリオン株式会社 ナビゲーション装置
JP2007302154A (ja) 2006-05-12 2007-11-22 Alps Electric Co Ltd 車載用入力装置
JP2008017130A (ja) 2006-07-05 2008-01-24 Matsushita Electric Ind Co Ltd デジタルカメラ、プログラム、および記録媒体
JP2009104268A (ja) 2007-10-22 2009-05-14 Hitachi Displays Ltd 座標検出装置、及びタッチパネルを用いた操作方法
US8106892B2 (en) 2007-10-29 2012-01-31 Sigmatel, Inc. Touch screen driver for resolving plural contemporaneous touches and methods for use therewith
US8294669B2 (en) 2007-11-19 2012-10-23 Palo Alto Research Center Incorporated Link target accuracy in touch-screen mobile devices by layout adjustment
JP2009134444A (ja) 2007-11-29 2009-06-18 Smk Corp 光学式タッチパネル入力装置
TW200925966A (en) 2007-12-11 2009-06-16 J Touch Corp Method of controlling multi-point controlled controller
JP5403905B2 (ja) 2007-12-14 2014-01-29 富士通コンポーネント株式会社 抵抗式タッチパネル
JP2009239424A (ja) 2008-03-26 2009-10-15 Nikon Corp カメラ
BRPI0912044A2 (pt) 2008-05-28 2016-01-05 Sharp Kk dispositivo de detcção de entrada, método de detecção de entrada, e meio de armazenamento
JP2009289157A (ja) 2008-05-30 2009-12-10 Digital Electronics Corp 表示器、表示器の制御方法、および当該制御方法をコンピュータに実現させるためのプログラム
JP5330746B2 (ja) 2008-06-27 2013-10-30 京セラ株式会社 電子機器および撮像方法
JP2010026641A (ja) 2008-07-16 2010-02-04 Nissha Printing Co Ltd マルチタッチ入力が可能なアナログ抵抗膜方式タッチパネル
WO2010008088A1 (ja) 2008-07-17 2010-01-21 日本電気株式会社 情報処理装置、プログラムを記録した記憶媒体及びオブジェクト移動方法
JP4632102B2 (ja) * 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
JP4976350B2 (ja) 2008-08-21 2012-07-18 株式会社デンソーアイティーラボラトリ カーナビゲーション装置
JP5185027B2 (ja) 2008-09-01 2013-04-17 オリンパスイメージング株式会社 画像表示装置、撮像装置、画像表示方法、および、撮像方法
KR101586627B1 (ko) 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
JP4395808B2 (ja) 2008-12-04 2010-01-13 富士フイルム株式会社 画面表示部を有する機器の操作装置、デジタルカメラおよびタッチパネル操作方法
JP2011003074A (ja) 2009-06-19 2011-01-06 Sharp Corp 入力方法、入力装置及び電気機器
JP2011028345A (ja) 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
JP2011050038A (ja) 2009-07-27 2011-03-10 Sanyo Electric Co Ltd 画像再生装置及び撮像装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027183A (ja) * 2006-07-21 2008-02-07 Sharp Corp 情報処理装置
JP2009276926A (ja) * 2008-05-13 2009-11-26 Ntt Docomo Inc 情報処理装置及び情報処理装置の表示情報編集方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2600234A4 (en) * 2011-08-31 2013-07-10 Rakuten Inc DATA PROCESSING DEVICE, METHOD FOR CONTROLLING THE DATA PROCESSING DEVICE, PROGRAM AND DATA STORAGE MEDIUM
US8952994B2 (en) 2011-08-31 2015-02-10 Rakuten, Inc. Information processing device, control method for information processing device, program, and information storage medium
EP2574041A3 (en) * 2011-09-20 2013-10-23 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
JP2013068671A (ja) * 2011-09-20 2013-04-18 Canon Inc 撮像装置及びその制御方法、プログラム、並びに記憶媒体
US8810709B2 (en) 2011-09-20 2014-08-19 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
US20130127728A1 (en) * 2011-11-18 2013-05-23 Samsung Electronics Co., Ltd. Method and apparatus for inputting character in touch device
EP2824545A4 (en) * 2012-03-06 2015-11-11 Nec Corp END DEVICE AND METHOD FOR CONTROLLING THE TERMINAL
EP4593366A3 (en) * 2012-03-06 2025-09-24 Apple Inc. Application for viewing images
CN103533217A (zh) * 2012-07-02 2014-01-22 奥林巴斯映像株式会社 摄像装置、摄像方法
CN103533217B (zh) * 2012-07-02 2017-09-12 奥林巴斯株式会社 摄像装置、摄像方法
WO2015083267A1 (ja) * 2013-12-05 2015-06-11 三菱電機株式会社 表示制御装置及び表示制御方法
JP6033465B2 (ja) * 2013-12-05 2016-11-30 三菱電機株式会社 表示制御装置
CN104536664A (zh) * 2014-12-25 2015-04-22 深圳市金立通信设备有限公司 一种快门位置确定方法
JP2015097126A (ja) * 2015-02-10 2015-05-21 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
CN108182002A (zh) * 2018-01-30 2018-06-19 北京小米移动软件有限公司 输入键的布局方法、装置、设备和存储介质

Also Published As

Publication number Publication date
US9250800B2 (en) 2016-02-02
US20160188200A1 (en) 2016-06-30
US20130033448A1 (en) 2013-02-07
US9760280B2 (en) 2017-09-12
CN102844732A (zh) 2012-12-26

Similar Documents

Publication Publication Date Title
WO2011102406A1 (ja) タッチパネル入力装置
JP5502584B2 (ja) デジタルカメラ
JP2011197848A (ja) タッチパネル入力装置
JP2011227703A (ja) 2点検知可能なタッチパネル入力装置
JP6765956B2 (ja) 撮像制御装置及びその制御方法
JP5264298B2 (ja) 画像処理装置および画像処理方法
CN105026976B (zh) 图像处理装置、摄像装置及图像处理方法
CN102033703A (zh) 输入装置
JP6833507B2 (ja) 撮像制御装置及びその制御方法
JP6833506B2 (ja) 撮像装置及びその制御方法
JP5702546B2 (ja) タッチパネル入力装置
US12406330B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
US20200007750A1 (en) Electronic apparatus and control method for electronic apparatus
US20250030938A1 (en) Imaging apparatus
JP2011215539A (ja) デジタルカメラ
JP7706945B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP7340150B2 (ja) 操作画像表示装置、操作画像表示システム、及び操作画像表示プログラム
JP5848792B2 (ja) デジタルカメラ
US12137288B2 (en) Imaging device with blur indication
US12423854B2 (en) Electronic apparatus, method for controlling electronic apparatus, and storage medium
JP6525753B2 (ja) 表示制御装置、その制御方法、およびプログラム
CN102118594B (zh) 前投影系统及方法
JP2025081939A (ja) 電子機器、電子機器の制御方法、プログラム、および記憶媒体
WO2018150983A1 (ja) 表示制御装置及び方法
JP2024170842A (ja) 撮像装置、撮像装置の制御方法、プログラム、および記憶媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180019674.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11744692

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13579378

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 11744692

Country of ref document: EP

Kind code of ref document: A1