WO2007066488A1 - Display device and touch panel operation/control method - Google Patents
Display device and touch panel operation/control method Download PDFInfo
- Publication number
- WO2007066488A1 WO2007066488A1 PCT/JP2006/322925 JP2006322925W WO2007066488A1 WO 2007066488 A1 WO2007066488 A1 WO 2007066488A1 JP 2006322925 W JP2006322925 W JP 2006322925W WO 2007066488 A1 WO2007066488 A1 WO 2007066488A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- images
- image
- menu
- display device
- display
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3231—Monitoring the presence, absence or movement of users
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Definitions
- the display unit has a function to display the operation such as S (On ceenDspa), which is used for setting the specifications of a plurality of images at the time of birth, by superimposing it on the corresponding image. To be done.
- S On ceenDspa
- Fig. 12 is a block diagram showing the configuration of the navigation device according to the light state.
- FIG. 4 is a front view showing the configuration of the navigation device shown in FIG. This is a chart for explaining the processing executed in the control shown in 3.
- this navigation clearly includes the control, the operation cut, the image display 2, the voice cut 3, the cut 4, and the check that form a stage. It comprises a net 5, an optical disc drive 6, and a drive disc 7. In addition to the general navigation and the above, it is also equipped with a voice input cut, a running sensor, a GPS, a media transmission / reception, etc. Is irrelevant, so that I am doing it.
- 001 6 is a reaction that clearly constitutes a control means and a reaction that clearly constitutes a stage.
- the left sensor 4 In order to detect that the left and right (for example, a person's finger) is moving closer to the left or right, the left sensor 4
- the 0020 cut is equipped with. As shown in Fig. 2, this part includes only the number of dogs provided on the body of the navigation and the touch panel 5 provided on the face of the device 2 displayed on the display device 2. A plurality of Sotoki 2 etc. will be adopted.
- the navigation parameters are set, for example, the destination is set, the information is set, and the driving situation of the vehicle is set.
- the image display device 2 sends the display data sent from the device 2 () such as a device capable of displaying the image in the direction 2 in a single plane. Based on the above, it is configured to include two image display controls, such as a display controller such as a graphic renderer, and () a display memory for storing the data. This image display 2 displays the map information, route information, operation guidance, and optical disc drive 6 of the control unit.
- the device 2 such as a device capable of displaying the image in the direction 2 in a single plane.
- it is configured to include two image display controls, such as a display controller such as a graphic renderer, and () a display memory for storing the data.
- This image display 2 displays the map information, route information, operation guidance, and optical disc drive 6 of the control unit.
- 002 2 is composed of a unit for synthesizing a voice of a voice by a control unit, a speaker for converting a voice signal amplified through a voice into a voice and releasing the voice to the outside.
- This dot 3 provides a voice guide for the vehicle's direction of travel, driving conditions, traffic conditions, and the above-mentioned conditions for the control dot, and an optical disc drive 6 and the like.
- 002 4 comprises the above-mentioned left sensor 4 sensor 42 and a path for driving them.
- Sensor 4 Sensor 42 is symmetrically arranged along the left and right two sides of the line 5.
- the left sensor 4 sensor 42 for example, a sensor that detects the presence of a body within an area of c to 2 c degrees by using infrared rays can be used.
- the channel 5 comprises the above-mentioned channel 5 and the path for driving the channel 5. , Obtains data on the position of the operation performed on channel 5, and gives this to the control unit.
- Disc Dry 6 is not (Compac Dsc) or O (Dg a Ve sa eDsk ReadOn Memo) Reads the image data () data recorded in the body, and gives this to the control. Executes the processing of the given image data and audio data, and outputs them to the image display 2 and audio cut 3, respectively.
- the 002 disk 7 stores various programs executed by the control, stores the image data related to the operation menu in the memory 7 and maps the navigation data. 72 for each.
- the map data 72 for example, the map data recorded in a medium such as O is projected through the optical disc drive 6 and retained.
- this channel control method is composed of a method that is periodically interrupted at a time interval of ⁇ seconds, and a task that is executed as a task during processing. Each of these processes will be described below.
- 00283 shows the processing executed in the navigation
- 4 shows the processing in the processing.
- Step S the navigation unit executes the command. Then, as shown in 4, this mode is started by the control 2 determining whether the value of S, which indicates the state of the left sensor 4, has become O.
- step S If the decision on the value of S is deterministic (step S), this means that an object is approaching the left sensor 4. Therefore, in Reaction 2, next, it is judged whether or not the value of S indicating the state of the right sensor 42 has become O (S 2) 003 1 The judgment result regarding this value of S is negative. If so (step S 2), then this Means that there is no object in the right sensor 42 and the body is closer to the left. Left sensor 4
- the sensor 42 is the former one. Therefore, the control dot 03 is used for video images that can be viewed from the left.
- control unit sets the value of the on-screen cursor O S to to indicate that the message displayed on the message at this time is the direction (step S4).
- the control unit also sets the value of the tie for setting the duration of the operation mode to (step S5). If the value of this tie is set and the interval of the process of 3 is set to 5, for example, the operation duration is 5.
- step S 6 If this judgment about the value of S is deterministic (step S 6), this means that there is no object in the left sensor 4 and its body is approaching from the right direction. To do. Left sensor 4
- the sensor 42 is the latter one. Therefore, the control dot 03 is used for images that can be viewed from the right.
- Operation which is the internal mode set for the operation, is selectively enabled and started (step S7).
- control unit sets the value of the on-screen S to 2 in order to indicate that the screen displayed at this time is the direction (step S8).
- control sets the value of the tie for setting the duration of the operation mode to in step S5 described above.
- step S 2 if the judgment result regarding the value of S is determinative and the judgment result regarding the value of S is deterministic (step S 2), this means that an object is present at the left sensor 4 sensor 42. Means entering. , This means that the touch operation for touch panel 5 is currently being performed. Therefore, the control dot 3 continues the current mode or right mode (step S 900039, and the control dot sets the duration of the operation mode in step S 5 described above). Set the tie value for to. When the tie value is set, the control returns processing to the process in Figure 3.
- step S 2 determines the tie value (step 2) and determines whether the tie value is (step S 2) o.
- step S 2 If the decision on the value of Thailand is deterministic (step S 2), this means that the duration of the currently valid token has already passed. To do. Therefore, the control dot 3 terminates the current valid or right command (step S22) 004 2. Then, the control dot does not have a display message at this time. To indicate that the value of the on-screen OS is set to (step S23)
- step S 2 the control returns the processing to the processing shown in FIG. If the decision on Thailand is negative (step S 2), this means that the duration of the current play has not passed. Therefore, in this case, the control returns the process to the process shown in Fig. 3.
- control unit determines whether or not the value of the on-screen OSS is set to (step S 2). Now, if the value of the on-screen cursor OS is set to (step S2), the control
- step S3 Reads out the image data representing the left-sided message from the memory 7 in the disk 7, and displays the corresponding message on the mouse 2 of the image display 2 (step S3). Then, the control ends the process related to this time.
- step S 2 determines whether the value is set to 2 (step 4).
- step S 4 the control device will store the image data representing the right-direction device in the memory 7 of the disk 7. From the image display device 2 on the image display device 2 (step S5). Then, the control ends the process related to this time.
- step S 4 If the value of the on-screen OS is also not set to 2 (step S 4, the control menu is not displayed the corresponding left or right menu). Yes (step S6). Then, the control unit ends this process.
- the reaction 2 and 4 detect that the behavior of the mechanism 5 is closer to the left and right sides. Further, when the orientation of the object is detected by the reaction 2 and 4, the operation mode 3 is allowed only the original setting operation of the image indicated by the image regarding the image possible from the corresponding direction. Depending on the user's action, the mode set for the action of channel 5 is selectively enabled 004. In the present embodiment, the action of moving only once or moving the body of the finger or the like close to touch panel 5 is performed. With only the line, it is possible to selectively display an image related to the image in the corresponding direction, and subsequently, it is possible to perform an action for the indicated image in succession to this action. As a result, it becomes possible to perform the operation by a very convenient operation procedure on the display device using the display device having the function of displaying a plurality of images in a distributed manner.
- the present invention is not limited to the above state, but can be modified.
- the present device in the above-mentioned state, an example in which the light device is applied to the navigation is given, but it is of course possible to apply the present device to the image display device of this book and other devices. .
- the image displayed on the display chair 2 is divided into the left and right directions and displayed, but as the chair, for example, the one that distributes and displays the images in the up, down, left and right directions is adopted. If you do, you can apply Ming in the same way. In this case, the number of existing sensors that compose the unit 4 should be 4, and these should be symmetrically arranged in the direction of the channel 5 along the 4 directions of up, down, left and right.
- the element of the control unit is Although it is assumed that the touch control method described in the above state is used, for example, the control unit is formed by a pin equipped with CP (Cen a Pocessng Un) RO (ReadOnyMemo) R (RandomAccessMemo). , Even if it's done.
- the corresponding touch program is recorded on a recording medium such as a disk device or CO that can be used to read the computer, and the computer reads and executes it.
- the program may be distributed via networks such as the Internet.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Navigation (AREA)
- Position Input By Displaying (AREA)
Abstract
A display device has a response-sequence detection section (102)(presence detection unit (140)) for detecting from which one of two left and right directions an object for performing touch operation has approached; a operation-menu-display control section (101) for displaying an operation menu used for specification setting when each of images of two left and right directions is reproduced, the operation menu being displayed superimposed on a corresponding video image; and an operation- mode effecting section (103) for selectively effecting an operation mode that is set relative to touch operation on a touch panel so as to correspond to the operation menu, the effecting of the operation mode being made such that, when the direction of approach of the object is detected by the response-sequence detection section (102), only specification-setting operation relative to the operation menu displayed by the operation-menu-display control section (101) in relation to a video image viewable from the corresponding approaching direction is permitted. As a result, in the display device using a display panel having a function of displaying plural video images in a divided manner, menu operation can be performed in a simple operation procedure.
Description
置及び チ 、 Location and
ネ 御方法 Control method
術分野 Surgical field
0001 、ナビゲ ョン の 像表示 器に適用される表示 置、 びそ の 施に直接 用される チ ネ 御方法に関する。 0001, the display device applied to the image display of the navigation, and the control method directly used for the operation.
0002 来、複数の 像を単 面上にお てそれぞれ 数の 向に振り分けて表示 することの 能な表示 イスが知られて る。この種の表 イスは、 チ ネ との み合 に 、入力 の として構成することが可能である。こ の 合、表示 置には、複数の 像の 生時における諸元設定に供される S (On c eenDspa )等の操 メ を、対応する映像に重畳さ て表示するため の メ 能が具備される。 Since 2000, there is known a display chair capable of displaying a plurality of images on a single plane by allocating the images in a plurality of directions. This type of device can be configured as an input only for a channel. In this case, the display unit has a function to display the operation such as S (On ceenDspa), which is used for setting the specifications of a plurality of images at the time of birth, by superimposing it on the corresponding image. To be done.
0003 上の メ 能を具備した表示 置では、複数の 像をそれ ぞれ する複数の ザに 行われる チ 作が、 ずれの 像に対して有 効である に て判断を行 要がある。この 断の 法を提供する 術の 例 として、 チ ネ 上に、左右2 向の 像に対応した2 類の メ の ずれを表示さ る を指定するための 2 の チ アを設定し、 ずれ の チ アに対する チ 作が行われたときに、対応する メ を表示する表示 ( 下、 )等が提案されて る。 0004 1 2 5 7 286 With a display device equipped with the above functions, it is necessary to judge that the work performed on multiple images for multiple images is effective for each image. As an example of how to provide this disconnection method, we set up 2 channels to specify that two types of displacement of the images corresponding to the two images on the left and right are displayed on the screen, and the displacement of the displacement is set. A display (below, etc.) that displays the corresponding message when a cheat against a team is made is proposed. 000 4 1 2 5 7 286
0005 この の 、複数の 像を振分表示する機能を有する上記 イス の 便性を更に向上さ るものとして、その 方面 の 及に寄与するものである。 000 It is intended to further improve the convenience of the above-mentioned chair having a function of sorting and displaying a plurality of images, and contribute to the extension of that area.
明の Of Ming
明が解決しよ とする課題 Problems that Ming is trying to solve
0006 し しながら、従来 の 術にあ ては、表示された メ に対する諸元設 定のための 際の チ 作に先立ち、2 類の メ の ずれを表示さ る を指定するための チ 作を行 要があり、その 作手順に関して若干の
さが存在するなどの 題が一例として げられる。 However, in the conventional technique, an operation for designating the display of the deviation of the two kinds of menus is performed prior to the operation for setting the specifications for the displayed menu. There is a certain amount of work required For example, the problem that there is
0007 、上記のよ 事情に みてなされたものであり、その 、複数の 像を振分表示する機能を有する表示 イスを用 た表示 置にお て、簡便な 作手順によりメ 作を〒 ことにある。 0007, which was made in view of the above circumstances, in which a simple operation procedure is used to create an operation on a display device using a display chair that has a function of sorting and displaying multiple images. .
題を解決するための To solve the problem
0008 、 の 点 らすると、複数の 像を単一 面上にお てそれぞれ 数の 向に振り分けて表示することの 能な表示 イス イスの 面に設けられた 、チ ネ チ ネ に対する チ 作を〒 体が 前記 数の 向の ずれ ら 近した を検出する物体 From the viewpoint of 0008, it is possible to display a plurality of images on a single plane by displaying them in a number of directions, respectively. An object that detects when the body approaches from the deviation of the above number
数の 像の 生時にお て、対応する映像に重畳さ て メ を表 示するための メ 御手段と 段により前記 体の 向が検出されたときに、 当する方向 ら 可能な映像に関して前 記 メ 御手段により 示されて る メ に対する 作のみ が許容されるよ 、 メ に対応して前記 チ ネ の チ 作に関 して設定された ドを選択的に有効 する ド 段と を備え ることを特徴とする表示 置である。 When the orientation of the body is detected by the control means and the step for displaying the message by superimposing it on the corresponding image at the time of the generation of a number of images, the above description regarding the image possible from that direction is given. Only the operation for the mechanism indicated by the control means is allowed, and a switch for selectively enabling the mode set for the mechanism of the corresponding channel is provided. Is a display device characterized by.
0009 、 2の 点 らすると、複数の 像を単一 面上にお てそれぞれ 数の 向に振り分けて表示することの 能な表示 イス イスの 面に設けられた 、チ ネ 数の 像の 生時にお て、対応する映 像に重畳さ て メ を表示するための メ 御手段と を備え る表示 置に用 られる チ ネ 御方法であ て、前記 チ ネ に 対する チ 作を〒 体が前記 数の 向の ずれ ら 近した を検出する 物体 程と 程で前記 体の 向が 検出されたときに、 当する方向 ら 可能な映像に関して前記 メ From points 090 and 2, it is possible to display and display multiple images on a single plane in the direction of the number of images. Is a control method used for a display device that has a control means for displaying a message superimposed on the corresponding image, and the object is a control method for the above-mentioned screen. When the orientation of the body is detected at the distance between the object and the object that detect the approach from the deviation of the orientation of
御手段により 示されて る メ に対する 作のみが許容されるよ 、 メ に対応して前記 チ ネ の チ 作に関して設定された ドを選択的に有効 する ド むを備えることを特徴とする チ ネ 御方法である。
0010 、 3の 点 らすると、 明の チ ネ 御方法を表示 置 の 段に実行さ る、ことを特徴とする チ ネ プ グラムである。 0011 、 4の 点 らすると、 明の チ ネ プ グラムが表 示 置の 段により み取り可能に記録されて る、ことを特徴とする チ ネ プ グラムを記録した記録 体である。 A mechanism for selectively enabling the mode set for the operation of the above-mentioned channel corresponding to the mode so that only the operation for the mode indicated by the control means is allowed. It's your way. From the points of 00100 and 3, the program is characterized by executing the light control method in the display stage. From the viewpoints of 001 1 and 4, it is a recording body for recording a thin program, characterized in that the clear program is recorded only by the steps of the display device.
0012 明の 態に係るナビゲ ョン 置の 成を示す ック図で ある。[Fig.12] Fig. 12 is a block diagram showing the configuration of the navigation device according to the light state.
2 に示されるナビゲ ョン 置の 成を示す正面図である。 3 に示される制御 ットにお て実行される メ 理を説明 するための チヤ トである。 FIG. 4 is a front view showing the configuration of the navigation device shown in FIG. This is a chart for explaining the processing executed in the control shown in 3.
4 3に示される ド 理を説明するための チヤ トである。 It is a chart to explain the reason shown in 43.
明を実施するための 良の Good for carrying out Ming
0013 下、本 明の 態に き、 ~ 4を参照しながら 明する。なお、本実 施 態にお ては、 明の 用を受ける表示 置が、車両 の 動体に搭 さ れる ナビゲ ョン にお て実現されて る場合を、代表的に説明する。また 、表示 イスに表示される映像は、左右2 向に振り分けて表示されるものとする。 0014 001 Under the present situation, refer to 4 to explain. In this embodiment, the case where the display device to be used for the purpose of the invention is realized by the navigation mounted on the moving body of the vehicle will be described as a typical example. In addition, the images displayed on the display chair shall be distributed to the left and right directions. 001
には、 明の 態に係るナビゲ ョン の 成が、 ッ ク図にて されて る。また、 2には、 に示したナビゲ ョン の 成が、正面図にて されて る。 In the figure, the navigation diagram for the situation of Ming is shown. In addition, the navigation structure shown in Figure 2 is shown in front view.
0015 に示されるよ に、このナビゲ ョン は、 明に 段を構成 する制御 ット と、操作 カ ット と、画像表示 ット 2 と、音声 カ ット 3 と、 ット 4 と、 チ ネ ット 5 と、光学ディスク ドライ 6 と、 ドディスク 7 とを備えて構成される。なお、一般のナ ビゲ ョン 、上記 外にも、音声入カ ット、走行センサ 、 、GPS ット、メディア 送受信 ット等を備えて構成されるが、これら されな ( )の 能とは無関係であるため、その
して る。 As shown in 01015, this navigation clearly includes the control, the operation cut, the image display 2, the voice cut 3, the cut 4, and the check that form a stage. It comprises a net 5, an optical disc drive 6, and a drive disc 7. In addition to the general navigation and the above, it is also equipped with a voice input cut, a running sensor, a GPS, a media transmission / reception, etc. Is irrelevant, so that I am doing it.
0016 ット は、 明に メ 御手段を構成する メ と、 明に 段を構成する反応001 6 is a reaction that clearly constitutes a control means and a reaction that clearly constitutes a stage.
2と、 明に ド 段を構成する ド 3 とを備えて る。 It is equipped with 2 and a do 3 which clearly forms a do stage.
0017 メ は、 2に示される表示 イス 2 に表示される左 右2 向の 像の 生時における諸元設定に供される メ を、対応する 映像に重畳さ ながら操作 カ ット を通じて表示する機能を有する。このと き、操作メ は、 ドディスク 7 内のメ 像記憶 7 ら、対応する メ に関する画像デ タを取得する。 0018 2は、 2に示される チ ネ 5 に対する チ 作を行This is a function to display the left and right two-sided image displayed on the display 2 shown in 2 on the operating screen while overlaying it on the corresponding image. Have. At this time, the operation menu acquires image data about the corresponding menu from the image storage 7 in the disk 7. 002 18 operates on the channel 5 shown in 2.
( えば人の指)が左右の ずれ ら 近した を検出するために、 チ ネ 5 の 体の 近に伴 、 2に示される左方 センサ 4 In order to detect that the left and right (for example, a person's finger) is moving closer to the left or right, the left sensor 4
センサ 42の 序を、 ット 4 を通じて検出する機能を 有する。なお、上記 メ は、表示 イス 2 による左右2 向の 像の 始を契機として メ を当初 ら 示する設定がなされ て る場合を除き、この 2による物体の 向の 出を契機と して メ を表示する。 It has a function of detecting the order of the sensor 42 through the dot 4. Note that the above-mentioned menus are triggered by the direction of the object by this 2 except when the setting to show the menu from the beginning is made with the start of the left and right images on the display chair 2. indicate.
0019 に戻り、操作 ド 3は、反応 2により物体の Returning to 0019, the operation mode 3 is
向が検出されたときに、 当する方向 ら 可能な映像に関して メ When the orientation is detected, the
により 示されて る メ の 元設定 ( チ )の みが許容されるよ 、 メ に対応して チ ネ 5 の チ 作に 関して設定された内部 な ドを選択的に有効 する機能を有する。 Only the original setting (chi) of the message indicated by is allowed, and it has the function of selectively validating the internal mode set for the operation of channel 5 corresponding to the message.
0020 カ ット は、 備えて構成される。この 部としては、 2 に示されるよ に、ナビゲ ョン の 体部に設けられた 数の ドキ 、表示 イス 2 上に表示された メ イス 2 の 面に設けられたタッチ ネ 5 との み合 らなる複数のソ トキ 2等 が採用される。この カ ット の 部を車両 が操作することによ
、ナビゲ ョン の 容の 定、例えば、 目的地の 定、情報の 定、車両の 行状況 が行われるほ 、光学ディスクドライ 6 に対する音声や 像の が行われる。これら操作 、操作 The 0020 cut is equipped with. As shown in Fig. 2, this part includes only the number of dogs provided on the body of the navigation and the touch panel 5 provided on the face of the device 2 displayed on the display device 2. A plurality of Sotoki 2 etc. will be adopted. When the vehicle operates this part of the cut, In addition, the navigation parameters are set, for example, the destination is set, the information is set, and the driving situation of the vehicle is set. These operations, operations
ット ら制御 ット えられる。 It is possible to control it.
0021 に戻り、画像表示 ット 2 は、㈲ 2 向の 像を単一 面上にお て り分けて表示することの 能な ネ 等の表 イス 2 ( ) ット ら送出された表示 デ タに基 て、画像表示 ット 2 体の 御を行 グラ ィック ンダラ等の表 ント ラ、 ( ) デ タを記憶す る表示 メ 等を備えて構成される。この 像表示 ット 2 は、制御 ット の 、地図 報、経路 報、操作ガイダンス 表示するほ 、光 学ディスクドライ 6 らの 表示する。 Returning to 0021, the image display device 2 sends the display data sent from the device 2 () such as a device capable of displaying the image in the direction 2 in a single plane. Based on the above, it is configured to include two image display controls, such as a display controller such as a graphic renderer, and () a display memory for storing the data. This image display 2 displays the map information, route information, operation guidance, and optical disc drive 6 of the control unit.
0022 ット 3 は、制御 ット による ンド の 声を合成する ための 置や、音声 を経て増幅された音声 号を 声に変換 して外部に放 するスピ カ等を備えて構成される。この ット 3 は、 制御 ット の 、車両の 行方向、走行状況、交通 況、上記 ンド に関する音声ガイドを するほ 、光学ディスクドライ 6 らの する。 002 2 is composed of a unit for synthesizing a voice of a voice by a control unit, a speaker for converting a voice signal amplified through a voice into a voice and releasing the voice to the outside. This dot 3 provides a voice guide for the vehicle's direction of travel, driving conditions, traffic conditions, and the above-mentioned conditions for the control dot, and an optical disc drive 6 and the like.
0023 ット 4 は、前述した左方 センサ 4 セ ンサ 42と、これらを駆動する 路とを備えて構成される。これら左方 002 4 comprises the above-mentioned left sensor 4 sensor 42 and a path for driving them. These left
センサ 4 センサ 42は、 2に示されるよ に、左右2 向に沿 チ ネ 5 の に対称 置される。なお、これら左方 セン サ 4 センサ 42の 品としては、例えば、 c ~2 c 度の 囲内にある 体の 在を赤外線の 利用して検知するものを採 用することができる。 Sensor 4 Sensor 42, as shown in 2, is symmetrically arranged along the left and right two sides of the line 5. As the left sensor 4 sensor 42, for example, a sensor that detects the presence of a body within an area of c to 2 c degrees by using infrared rays can be used.
0024 に戻り、 チ ネ ット 5 は、前述した 、チ ネ 5 と、これを駆動 する 路とを備えて構成される。 、 チ ネ 5 に対して行われ た チ 作の 置に関するデ タを取得して、これを制御 ット に与える。 0025 ディスクドライ 6 は、 されな (Compac Dsc)や O
(Dg a Ve sa eDsk ReadOn Memo )等の記 体に記録された画像デ タ ( )デ タを読み出し、これを制御 ット に与える。 ッ ト は、与えられた画像デ タ び音声デ タの 理を実行して、これらを画 像表示 ット 2 び音声 カ ット 3 にそれぞれ える。 Returning to 002, the channel 5 comprises the above-mentioned channel 5 and the path for driving the channel 5. , Obtains data on the position of the operation performed on channel 5, and gives this to the control unit. 002 Disc Dry 6 is not (Compac Dsc) or O (Dg a Ve sa eDsk ReadOn Memo) Reads the image data () data recorded in the body, and gives this to the control. Executes the processing of the given image data and audio data, and outputs them to the image display 2 and audio cut 3, respectively.
0026 ドディスク 7 は、制御 ット で実行される各種プ グラムを記憶す るほ 、操作メ に関する画像デ タをメ 像記憶 7 に、また、ナ ビゲ ョン 理用の デ タを地図デ タ 72にそれぞれ する。 なお、地図デ タ 72には、例えば、 O 等の記 体に記録さ れた地図デ タが、光学ディスクドライ 6 を通じて み出され、保持される。 0027 The 002 disk 7 stores various programs executed by the control, stores the image data related to the operation menu in the memory 7 and maps the navigation data. 72 for each. In the map data 72, for example, the map data recorded in a medium such as O is projected through the optical disc drive 6 and retained. 002
て、以上のよ に構成された、表示 としてのナビゲ ョン にお て実行される チ ネ 御方法を説明する。なお、この チ ネ 御方法は、 ~ 秒の時間間隔で周期的に割込 理される メ と、 メ 理中の チンとして実行される ド とを含んで構成される。 下、これら各処理を説明する。 0028 3には、ナビゲ ョン の ット にお て実行される メ 理が示され、 4には、 メ 理における ド 理が示されて る。 Then, the control method executed in the navigation as the display configured as described above will be explained. Note that this channel control method is composed of a method that is periodically interrupted at a time interval of ~ seconds, and a task that is executed as a task during processing. Each of these processes will be described below. 00283 shows the processing executed in the navigation, and 4 shows the processing in the processing.
0029 まず、 3に示されるよ に、ナビゲ ョン の ット は、 ド を実行する。そして、 4に示されるよ に、この ド は、 制御 ット の 2が、左方 センサ 4 の 態を示す S の値が O にな た 否 を、 ット 4 を通じて判定すること により開始される(ステップS ) 002 First, as shown in 3, the navigation unit executes the command. Then, as shown in 4, this mode is started by the control 2 determining whether the value of S, which indicates the state of the left sensor 4, has become O. (Step S)
0030 この S の値に関する判定 果が 定的である場合(ステップS )、これ は、左方 センサ 4 の に物体が進入して ることを意味する。このた め、反応 2は、次 で、右方 センサ 42の 態を示す S の値が O にな た 否 を、 ット 4 を通じて判定する(S 2) 0031 この S の値に関する判定 果が否定的である場合(ステップS 2 )、これ
は、右方 センサ 42の に物体が 入しておらず、その 体が 左方向 ら 近して ることを意味する。 、左方 センサ 4 003 If the decision on the value of S is deterministic (step S), this means that an object is approaching the left sensor 4. Therefore, in Reaction 2, next, it is judged whether or not the value of S indicating the state of the right sensor 42 has become O (S 2) 003 1 The judgment result regarding this value of S is negative. If so (step S 2), then this Means that there is no object in the right sensor 42 and the body is closer to the left. Left sensor 4
センサ 42の 、前者の方が先である。そこで、制御 ット の ド 03は、左方向 ら 可能な映像に関して メ The sensor 42 is the former one. Therefore, the control dot 03 is used for video images that can be viewed from the left.
により 示されて る メ の 元設定 作のみが許容され るよ 、 メ メ 対応して チ ネ 5 の チ 作に関して設定された内部 な ドである ドを選択的に 有効 、 ドを開始する(ステップS 3) To enable only the original settings of the memory indicated by the above, selectively enable the internal mode that is set for the memory of channel 5 and start the mode. S 3)
0032 そして、制御 ット は、このとき メ に表示さ る き メ が 方向 であることを示すために、オンスク ン ラ O S の値を にセットする(ステップS 4)。また、制御 ット は、操作 ドの 続時間を設定するためのタイ の値を にセットする(ステップS 5)。なお、 このタイ の値を とし、 3の メ 理の 隔を例え ば 5 とした場合、操作 ドの 続時間は 5 となる。 [0232] Then, the control unit sets the value of the on-screen cursor O S to to indicate that the message displayed on the message at this time is the direction (step S4). The control unit also sets the value of the tie for setting the duration of the operation mode to (step S5). If the value of this tie is set and the interval of the process of 3 is set to 5, for example, the operation duration is 5.
0033 オンスク ン ラ O S タイ の セットされると、制御 ット は、処理を図3の メ 理に復帰さ る。 When the 003 on-screen OS S tie is set, the control returns the process to the process of Figure 3.
0034 これに対し、上記 S の値に関する判定 果が否定的である場合(ステップ003 On the other hand, if the judgment result about the value of S is negative (step
)、これは、左方 センサ 4 の に物体が進入して な ことを 意味する。このため、反応 2は、次 で、右方 センサ 42の 態を示す S の値が O にな た 否 を、 ット 4 を通じて 判定する(S 6) ), This means that no object has entered the left sensor 4. For this reason, in Reaction 2, next, it is judged whether or not the value of S indicating the state of the right sensor 42 becomes O through Step 4 (S 6).
0035 この S の値に関する判定 果が 定的である場合(ステップS 6 )、これ は、左方 センサ 4 の に物体が 入しておらず、その 体が 右方向 ら 近して ることを意味する。 、左方 センサ 4 003 If this judgment about the value of S is deterministic (step S 6), this means that there is no object in the left sensor 4 and its body is approaching from the right direction. To do. Left sensor 4
センサ 42の 、後者の方が先である。そこで、制御 ット の ド 03は、右方向 ら 可能な映像に関して メ The sensor 42 is the latter one. Therefore, the control dot 03 is used for images that can be viewed from the right.
により 示されて る メ の 元設定 作のみが許容され るよ 、 メ ( メ )に対応して チ ネ 5 の
作に関して設定された内部 な ドである ドを選択的に 有効 、 ドを開始する(ステップS 7) Only the original settings of the menu shown by are allowed. Operation, which is the internal mode set for the operation, is selectively enabled and started (step S7).
0036 そして、制御 ット は、このとき メ に表示さ る き メ が 方向 であることを示すために、オンスク ン ラ S の値を 2 にセットする(ステップS 8)。また、制御 ット は、前述したステッ プS 5にお て、操作 ドの 続時間を設定するためのタイ の値を に セットする。 Then, the control unit sets the value of the on-screen S to 2 in order to indicate that the screen displayed at this time is the direction (step S8). In addition, the control sets the value of the tie for setting the duration of the operation mode to in step S5 described above.
0037 オンスク ン ラ O S タイ の セットされると、制御 ット は、処理を図3の メ 理に復帰さ る。 003 37 On-screen OS When the tie is set, the control returns the processing to the processing shown in FIG.
0038 方、上記 S の値に関する判定 果が 定的で、 S の値に関す る判定 果が 定的である場合(ステップS 2 )、これは、左方 センサ 4 センサ 42の 方の に物体が進入して ることを意 味する。 、この 、タッチ ネ 5 に対するタッチ 作が現在 われて ることを意味する。そこで、制御 ット の ド 3は、現在 されて る ド又は右 ドを継続する(ステップS 9 0039 そして、制御 ット は、前述したステップS 5にお て、操作 ドの 続 時間を設定するためのタイ の値を にセットする。タイ の値がセットされる と、制御 ット は、処理を図3の メ 理に復帰さ る。 On the other hand, if the judgment result regarding the value of S is determinative and the judgment result regarding the value of S is deterministic (step S 2), this means that an object is present at the left sensor 4 sensor 42. Means entering. , This means that the touch operation for touch panel 5 is currently being performed. Therefore, the control dot 3 continues the current mode or right mode (step S 900039, and the control dot sets the duration of the operation mode in step S 5 described above). Set the tie value for to. When the tie value is set, the control returns processing to the process in Figure 3.
0040 方、上記 S の値に関する判定 果が否定的で、 S の値に関す る判定 果も否定的である場合(ステップS 2 )、これは、左方 センサ 4 センサ 42の ずれの にも 体が進入して な こと を意味する。 、この 、タッチ ネ 5 に対するタッチ 作が現在 われ て な ことを意味する。そこで、制御 ット の ド 3は、タ イ の値を メント (ステップ 2 )、そのタイ の値が である 否 を判定する(ステップS 2 )o On the other hand, if the judgment result regarding the value of S is negative and the judgment result regarding the value of S is also negative (step S 2), this is due to the displacement of the left sensor 4 sensor 42. Means that you have not entered. This means that no touch operation for touch panel 5 is currently being used. Therefore, the control dot 3 determines the tie value (step 2) and determines whether the tie value is (step S 2) o.
0041 タイ の値に関する判定 果が 定的である場合(ステップS 2 )、これ は、現在まで有効 されて た ドの 続時間が既に渡 して ることを
する。そこで、制御 ット の ド 3は、現在まで有効 さ れて た ド又は右 ドを終了する(ステップS 22) 0042 そして、制御 ット は、このとき メ に表示さ る き メ が存在しな ことを示すために、オンスク ン ラ O S の値を に セットする(ステップS 23) 004 If the decision on the value of Thailand is deterministic (step S 2), this means that the duration of the currently valid token has already passed. To do. Therefore, the control dot 3 terminates the current valid or right command (step S22) 004 2. Then, the control dot does not have a display message at this time. To indicate that the value of the on-screen OS is set to (step S23)
0043 オンスク ン ラ O S の値がセットされると、制御 ット は、処理を図3 の メ 理に復帰さ る。また、タイ に関する判定 果が否定的で ある場合(ステップS 2 )、これは、現在 されて る ドの 続時 間が だ渡 して な ことを意味する。そこで、制御 ット は、この 合にも 理を図3の メ 理に復帰さ る。 When the value of the on-screen OSS is set, the control returns the processing to the processing shown in FIG. If the decision on Thailand is negative (step S 2), this means that the duration of the current play has not passed. Therefore, in this case, the control returns the process to the process shown in Fig. 3.
0044 3に戻り、制御 ット は、上記オンスク ン ラ O S の値が にセッ トされて る 否 を判定する(ステップS 2)。ここで、オンスク ン ラ O S の 値が にセットされて る場合(ステップS 2 )、制御 ット の メ Returning to 004 43, the control unit determines whether or not the value of the on-screen OSS is set to (step S 2). Now, if the value of the on-screen cursor OS is set to (step S2), the control
は、左方向 の メ を表現した画像デ タを ドデ イスク 7 内のメ 面記憶 7 ら読み出し、 当する メ を画像表示 ット 2 の イス 2 に表示する(ステップS 3)。そして、制 御 ット は、今回の 係る メ 理を終了さ る。 Reads out the image data representing the left-sided message from the memory 7 in the disk 7, and displays the corresponding message on the mouse 2 of the image display 2 (step S3). Then, the control ends the process related to this time.
0045 これに対し、オンスク ン ラ O S の値が にセットされて な 場合(ステ 、プS 2 )、制御 ット は、その値が 2 にセットされて る 否 を判定す る(ステップ 4)。ここで、オンスク ン ラ O S の値が 2 にセットされて る 場合(ステップS 4 )、制御 ット の メ は、右方 向 の メ を表現した画像デ タを ドデイスク 7 内のメ 面記憶 7 ら読み出し、 当する メ を画像表示 ット 2 の イス 2 に表示する(ステップS 5)。そして、制御 ット は、今回 の 係る メ 理を終了さ る。 On the other hand, if the value of the on-screen O S is not set to (step S 2), the control determines whether the value is set to 2 (step 4). Here, if the value of the on-screen OS is set to 2 (step S 4), the control device will store the image data representing the right-direction device in the memory 7 of the disk 7. From the image display device 2 on the image display device 2 (step S5). Then, the control ends the process related to this time.
0046 また、オンスク ン ラ O S の値が にも 2 にセットされて な 場合(ス テ プS 4 、制御 ッ の メ は、現在まで表示 されて た 当する左方向 右方向 の メ の 示を解除
する(ステップS 6)。そして制御 ット は、今回の 係る メ 理を終了さ る。 004 If the value of the on-screen OS is also not set to 2 (step S 4, the control menu is not displayed the corresponding left or right menu). Yes (step S6). Then, the control unit ends this process.
0047 上 明したよ に、本実施 態では、反応 2 ッ ト 4 が、 チ ネ 5 に対する チ 作を行 体が左右2 向の ずれ ら 近した を検出する。また、反応 2 ット 4 によ り物体の 向が検出されたときに、操作 ド 3が、 当する方向 ら 可能な映像に関して メ により 示されて る メ の 元設定 作のみが許容されるよ 、 メ に対応して 、チ ネ 5 の チ 作に関して設定された ドを選択的に有効 0048 、本実施 態では、 回のみの 作、即 、指などの 体をタッチ ネ 5 に近 ける 作を行 だけで、 当する方向 ら 可能な映像に関する メ を選択的に表示さ ることができ、以下、この 作に連続して、その 示された メ に対する チ 作を行 ことが可能となる。この 果、複数の 像を振 分表示する機能を有する表示 イスを用 た表示 置にお て、極めて 便な 作手順によりメ 作を行 ことが可能となる。 As described above, in this embodiment, the reaction 2 and 4 detect that the behavior of the mechanism 5 is closer to the left and right sides. Further, when the orientation of the object is detected by the reaction 2 and 4, the operation mode 3 is allowed only the original setting operation of the image indicated by the image regarding the image possible from the corresponding direction. Depending on the user's action, the mode set for the action of channel 5 is selectively enabled 004. In the present embodiment, the action of moving only once or moving the body of the finger or the like close to touch panel 5 is performed. With only the line, it is possible to selectively display an image related to the image in the corresponding direction, and subsequently, it is possible to perform an action for the indicated image in succession to this action. As a result, it becomes possible to perform the operation by a very convenient operation procedure on the display device using the display device having the function of displaying a plurality of images in a distributed manner.
0049 態の 004
、上記の 態に限定されるものではな 、 変形が可能である。 0050 えば、上記 態では、 明の 置をナビゲ ョン に適用し た例を挙げたが、無論、本 、これ以外の えば ンピ の の の 像表示 器に対しても適用することが可能である。 However, the present invention is not limited to the above state, but can be modified. For example, in the above-mentioned state, an example in which the light device is applied to the navigation is given, but it is of course possible to apply the present device to the image display device of this book and other devices. .
0051 また、上記 態では、表示 イス 2 に表示される映像が左右2 向に振り 分けて表示されるものとしたが、 イスとして、例えば、上下左右4 向に映像 を振分表示するものを採用した場合にも、 明を同様にして適用することができる 。この 合、 ット 4 を構成する存在 センサの数を4 用 、これ らを、上下左右4 向に沿 た 、チ ネ 5 の に対称 置するなど すればよ 。 In the above-mentioned state, the image displayed on the display chair 2 is divided into the left and right directions and displayed, but as the chair, for example, the one that distributes and displays the images in the up, down, left and right directions is adopted. If you do, you can apply Ming in the same way. In this case, the number of existing sensors that compose the unit 4 should be 4, and these should be symmetrically arranged in the direction of the channel 5 along the 4 directions of up, down, left and right.
0052 また、上記 態では、制御 ット の 素が ドウ ア 段により
成されることを前提としたが、例えば、制御 ット をCP (Cen a Pocessng Un ) RO (ReadOnyMemo ) R (RandomAccessMemo )等を備えた ピ により 成し、上記 態で説明したタッチ ネ 御方法を、 ンピ に実行さ るよ にしてもよ 。この 合、 当するタッチ ネ プ グラムは、 ドディスク 置やC O 等の ンピ タ み取り可能 な記録 体に記録され、 ンピ により 体 ら読み出されて実行される。 また、この 、チ ネ プ グラムは、インタ ネット等のネットワ クを介し て配布されるよ にしてもよ 。
Also, in the above-mentioned state, the element of the control unit is Although it is assumed that the touch control method described in the above state is used, for example, the control unit is formed by a pin equipped with CP (Cen a Pocessng Un) RO (ReadOnyMemo) R (RandomAccessMemo). , Even if it's done. In this case, the corresponding touch program is recorded on a recording medium such as a disk device or CO that can be used to read the computer, and the computer reads and executes it. The program may be distributed via networks such as the Internet.
Claims
求の Wanted
数の 像を単一 面上にお てそれぞれ 数の 向に振り分けて表示すること の 能な表示 イス A display chair capable of displaying an image of a number on a single plane by allocating it to each direction of the number.
イスの 面に設けられた チ ネ A channel on the surface of the chair
チ ネ に対する チ 作を〒 体が前記 数の 向の ずれ ら 近した を検出する物体 段と The action for the cinema is defined as an object stage that detects when the body approaches from the deviation of the above number.
数の 像の 生時にお て、対応する映像に重畳さ て メ を 表示するための メ 御手段と When a number of images are live, a means for displaying the images on the corresponding image is displayed.
段により前記 体の 向が検出されたときに、 当 する方向 ら 可能な映像に関して前記 メ 御手段により 示さ れて る メ に対する 作のみが許容されるよ 、 メ に対応 して前記 、チ ネ の チ 作に関して設定された ドを選択的に有効 する ド 段と を備えることを特徴とする表示 。 When the orientation of the body is detected by the step, only the action on the image indicated by the control means with respect to the image possible from the corresponding direction is allowed. A display characterized by comprising a switch for selectively activating a code set for the operation.
2 メ 御手段は、前記 段による前記 体 の 向の 出を契機として前記 メ を表示する、ことを特徴とする に記載の 。2. The 2 control means displays the message when triggered by the direction of the body by the step.
3 メ 御手段は、前記 イスによる前記 数の 像の 始を契機として前記 メ を表示する、ことを特徴とする 又は2に 記載の 。3. The 3 means for controlling displays the message upon the start of the number of images by the chair, or 2).
4 、 Four ,
前記 数の 向に沿 、チ ネ の に対称 置された 数の センサ The number of sensors arranged symmetrically in the direction of the number
チ ネ の 体の 近に伴 数の センサの 序を検出する反応 むを備えることを特徴とする ~3の ず れ に記載の 。 [4] The method according to any one of [3] to [3], which is equipped with a reaction for detecting the order of the sensor of the algebra near the body of the tine.
5 数の 像を単一 面上にお てそれぞれ 数の 向に振り分けて表示すること の 能な表示 イス イスの 面に設けられたタッチ ネ A touch panel provided on the surface of a display device that is capable of displaying five images on a single surface by allocating them to each direction.
数の 像の 生時にお て、対応する映像に重畳さ て メ を
するための メ 御手段と を備える表示 置に用 られる チ ネ 御方法であ て、 When a number of images are live, the images are superimposed on the corresponding images. A control method used for a display device including a control means for
前記 チ ネ に対する チ 作を〒 体が前記 数の 向の ずれ ら 近した を検出する物体 程と The action for the above-mentioned cine is defined as
程で前記 体の 向が検出されたときに、 当す る方向 ら 可能な映像に関して前記 メ 御手段により 示され て る メ に対する 作のみが許容されるよ 、 メ に対応し て前記 チ ネ の チ 作に関して設定された ドを選択的に有効 する ド むを備えることを特徴とする チ ネ 御方法 6 5に記載の チ ネ 御方法を表示 置の 段に実行さ る 、ことを特徴とする チ ネ プ グラム。 When the orientation of the body is detected, only the action for the image indicated by the control means in the image in that direction is allowed. A method for controlling a channel according to a channel control method 65, characterized in that the channel set for the operation is selectively activated. Chinese program.
7 6に記載の チ ネ プ グラムが表示 置の 段により み取り可能に記録されて る、ことを特徴とする チ ネ プ グラムを 記録した記録 。
A record in which the program described in 7-6 is recorded so that it can be taken only by the stage of the display device.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005356083 | 2005-12-09 | ||
JP2005-356083 | 2005-12-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2007066488A1 true WO2007066488A1 (en) | 2007-06-14 |
Family
ID=38122638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2006/322925 WO2007066488A1 (en) | 2005-12-09 | 2006-11-17 | Display device and touch panel operation/control method |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2007066488A1 (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2028585A1 (en) * | 2007-08-21 | 2009-02-25 | Wacom Co., Ltd. | Information processing apparatus, operation input method and computer program product |
EP2133778A2 (en) | 2008-06-10 | 2009-12-16 | Sony Service Centre (Europe) N.V. | Touch screen display device with a virtual keyboard and at least one proximity sensor |
US7903094B2 (en) | 2006-06-23 | 2011-03-08 | Wacom Co., Ltd | Information processing apparatus, operation input method, and sensing device |
TWI552124B (en) * | 2009-02-02 | 2016-10-01 | 蘋果公司 | Dual configuration for display data lines |
US9582131B2 (en) | 2009-06-29 | 2017-02-28 | Apple Inc. | Touch sensor panel design |
TWI602086B (en) * | 2015-06-30 | 2017-10-11 | 華碩電腦股份有限公司 | Touch control device and operation method thereof |
US9874975B2 (en) | 2012-04-16 | 2018-01-23 | Apple Inc. | Reconstruction of original touch image from differential touch image |
US9880655B2 (en) | 2014-09-02 | 2018-01-30 | Apple Inc. | Method of disambiguating water from a finger touch on a touch sensor panel |
US9886141B2 (en) | 2013-08-16 | 2018-02-06 | Apple Inc. | Mutual and self capacitance touch measurements in touch panel |
US9996175B2 (en) | 2009-02-02 | 2018-06-12 | Apple Inc. | Switching circuitry for touch sensitive display |
US10001888B2 (en) | 2009-04-10 | 2018-06-19 | Apple Inc. | Touch sensor panel design |
US10289251B2 (en) | 2014-06-27 | 2019-05-14 | Apple Inc. | Reducing floating ground effects in pixelated self-capacitance touch screens |
US10365773B2 (en) | 2015-09-30 | 2019-07-30 | Apple Inc. | Flexible scan plan using coarse mutual capacitance and fully-guarded measurements |
US10386965B2 (en) | 2017-04-20 | 2019-08-20 | Apple Inc. | Finger tracking in wet environment |
US10444918B2 (en) | 2016-09-06 | 2019-10-15 | Apple Inc. | Back of cover touch sensors |
US10488992B2 (en) | 2015-03-10 | 2019-11-26 | Apple Inc. | Multi-chip touch architecture for scalability |
US10705658B2 (en) | 2014-09-22 | 2020-07-07 | Apple Inc. | Ungrounded user signal compensation for pixelated self-capacitance touch sensor panel |
US10712867B2 (en) | 2014-10-27 | 2020-07-14 | Apple Inc. | Pixelated self-capacitance water rejection |
US10795488B2 (en) | 2015-02-02 | 2020-10-06 | Apple Inc. | Flexible self-capacitance and mutual capacitance touch sensing system architecture |
US10936120B2 (en) | 2014-05-22 | 2021-03-02 | Apple Inc. | Panel bootstraping architectures for in-cell self-capacitance |
US11269467B2 (en) | 2007-10-04 | 2022-03-08 | Apple Inc. | Single-layer touch-sensitive display |
US11294503B2 (en) | 2008-01-04 | 2022-04-05 | Apple Inc. | Sensor baseline offset adjustment for a subset of sensor output values |
US11662867B1 (en) | 2020-05-30 | 2023-05-30 | Apple Inc. | Hover detection on a touch sensor panel |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004067031A (en) * | 2002-08-08 | 2004-03-04 | Nissan Motor Co Ltd | Operator identification device and in-vehicle device using the same |
JP2004233816A (en) * | 2003-01-31 | 2004-08-19 | Olympus Corp | Image display device and image display method |
JP2005071286A (en) * | 2003-08-28 | 2005-03-17 | Sharp Corp | Display device |
-
2006
- 2006-11-17 WO PCT/JP2006/322925 patent/WO2007066488A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004067031A (en) * | 2002-08-08 | 2004-03-04 | Nissan Motor Co Ltd | Operator identification device and in-vehicle device using the same |
JP2004233816A (en) * | 2003-01-31 | 2004-08-19 | Olympus Corp | Image display device and image display method |
JP2005071286A (en) * | 2003-08-28 | 2005-03-17 | Sharp Corp | Display device |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7903094B2 (en) | 2006-06-23 | 2011-03-08 | Wacom Co., Ltd | Information processing apparatus, operation input method, and sensing device |
EP2028585A1 (en) * | 2007-08-21 | 2009-02-25 | Wacom Co., Ltd. | Information processing apparatus, operation input method and computer program product |
US11983371B2 (en) | 2007-10-04 | 2024-05-14 | Apple Inc. | Single-layer touch-sensitive display |
US11269467B2 (en) | 2007-10-04 | 2022-03-08 | Apple Inc. | Single-layer touch-sensitive display |
US11294503B2 (en) | 2008-01-04 | 2022-04-05 | Apple Inc. | Sensor baseline offset adjustment for a subset of sensor output values |
US8619034B2 (en) | 2008-06-10 | 2013-12-31 | Sony Europe (Belgium) Nv | Sensor-based display of virtual keyboard image and associated methodology |
EP2133778A2 (en) | 2008-06-10 | 2009-12-16 | Sony Service Centre (Europe) N.V. | Touch screen display device with a virtual keyboard and at least one proximity sensor |
TWI552124B (en) * | 2009-02-02 | 2016-10-01 | 蘋果公司 | Dual configuration for display data lines |
US9996175B2 (en) | 2009-02-02 | 2018-06-12 | Apple Inc. | Switching circuitry for touch sensitive display |
US10001888B2 (en) | 2009-04-10 | 2018-06-19 | Apple Inc. | Touch sensor panel design |
US9582131B2 (en) | 2009-06-29 | 2017-02-28 | Apple Inc. | Touch sensor panel design |
US9874975B2 (en) | 2012-04-16 | 2018-01-23 | Apple Inc. | Reconstruction of original touch image from differential touch image |
US9886141B2 (en) | 2013-08-16 | 2018-02-06 | Apple Inc. | Mutual and self capacitance touch measurements in touch panel |
US10936120B2 (en) | 2014-05-22 | 2021-03-02 | Apple Inc. | Panel bootstraping architectures for in-cell self-capacitance |
US10289251B2 (en) | 2014-06-27 | 2019-05-14 | Apple Inc. | Reducing floating ground effects in pixelated self-capacitance touch screens |
US9880655B2 (en) | 2014-09-02 | 2018-01-30 | Apple Inc. | Method of disambiguating water from a finger touch on a touch sensor panel |
US10705658B2 (en) | 2014-09-22 | 2020-07-07 | Apple Inc. | Ungrounded user signal compensation for pixelated self-capacitance touch sensor panel |
US11625124B2 (en) | 2014-09-22 | 2023-04-11 | Apple Inc. | Ungrounded user signal compensation for pixelated self-capacitance touch sensor panel |
US11561647B2 (en) | 2014-10-27 | 2023-01-24 | Apple Inc. | Pixelated self-capacitance water rejection |
US10712867B2 (en) | 2014-10-27 | 2020-07-14 | Apple Inc. | Pixelated self-capacitance water rejection |
US10795488B2 (en) | 2015-02-02 | 2020-10-06 | Apple Inc. | Flexible self-capacitance and mutual capacitance touch sensing system architecture |
US11353985B2 (en) | 2015-02-02 | 2022-06-07 | Apple Inc. | Flexible self-capacitance and mutual capacitance touch sensing system architecture |
US12014003B2 (en) | 2015-02-02 | 2024-06-18 | Apple Inc. | Flexible self-capacitance and mutual capacitance touch sensing system architecture |
US10488992B2 (en) | 2015-03-10 | 2019-11-26 | Apple Inc. | Multi-chip touch architecture for scalability |
TWI602086B (en) * | 2015-06-30 | 2017-10-11 | 華碩電腦股份有限公司 | Touch control device and operation method thereof |
US10365773B2 (en) | 2015-09-30 | 2019-07-30 | Apple Inc. | Flexible scan plan using coarse mutual capacitance and fully-guarded measurements |
US10444918B2 (en) | 2016-09-06 | 2019-10-15 | Apple Inc. | Back of cover touch sensors |
US10642418B2 (en) | 2017-04-20 | 2020-05-05 | Apple Inc. | Finger tracking in wet environment |
US10386965B2 (en) | 2017-04-20 | 2019-08-20 | Apple Inc. | Finger tracking in wet environment |
US11662867B1 (en) | 2020-05-30 | 2023-05-30 | Apple Inc. | Hover detection on a touch sensor panel |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2007066488A1 (en) | Display device and touch panel operation/control method | |
EP2650164B1 (en) | In-vehicle information system, in-vehicle apparatus and information terminal | |
US10466800B2 (en) | Vehicle information processing device | |
JP5028038B2 (en) | In-vehicle display device and display method for in-vehicle display device | |
EP3165994B1 (en) | Information processing device | |
JP5040901B2 (en) | In-vehicle information device and in-vehicle information system | |
JP5305039B2 (en) | Display device, display method, and display program | |
JP2007241410A (en) | Display device and display control method | |
JP2009193135A (en) | In-vehicle monitor device | |
JP7038560B2 (en) | Information processing equipment and information processing method | |
JP2016038621A (en) | Space input system | |
JP5795177B2 (en) | Information processing apparatus, information processing method, and program | |
WO2014196208A1 (en) | Gesture input device for car navigation device | |
JP2005196530A (en) | Space input device and space input method | |
JP2006001498A (en) | On-vehicle unit device and operation method by touch panel | |
JP4628199B2 (en) | Display device | |
JP6033465B2 (en) | Display control device | |
JP5261878B2 (en) | In-vehicle image display control device and in-vehicle image display control program | |
JP2012083831A (en) | Touch panel device, display method for touch panel, display processing program for touch panel and recording medium | |
US20160253088A1 (en) | Display control apparatus and display control method | |
JP6655997B2 (en) | Video control device | |
JP4351921B2 (en) | NAVIGATION DEVICE, INFORMATION PRESENTATION METHOD, AND NAVIGATION PROGRAM | |
JP6180306B2 (en) | Display control apparatus and display control method | |
JP2000097719A (en) | Navigation system | |
JP3513710B2 (en) | Navigation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application | ||
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 06832804 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |