[go: up one dir, main page]

WO2014108147A1 - Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung - Google Patents

Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung Download PDF

Info

Publication number
WO2014108147A1
WO2014108147A1 PCT/EP2013/003375 EP2013003375W WO2014108147A1 WO 2014108147 A1 WO2014108147 A1 WO 2014108147A1 EP 2013003375 W EP2013003375 W EP 2013003375W WO 2014108147 A1 WO2014108147 A1 WO 2014108147A1
Authority
WO
WIPO (PCT)
Prior art keywords
hand
display device
sensor device
image content
motor vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/EP2013/003375
Other languages
English (en)
French (fr)
Inventor
Michael SCHLITTENBAUER
Martin Roehder
Lorenz Bohrer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Publication of WO2014108147A1 publication Critical patent/WO2014108147A1/de
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Definitions

  • the invention relates to a method for operating a display device, by means of which a picture content is displayed on a screen.
  • a location and / or a scaling of the image content can be changed by moving a hand in front of the screen.
  • a zooming and / or shifting of the image content can be effected by a hand movement.
  • a position of the hand is repeatedly determined by an optical sensor device.
  • the invention also includes a motor vehicle, a mobile terminal, such as a smartphone or a tablet PC, and a computer program product with which a conventional mobile terminal for carrying out the method according to the invention is improved.
  • the device has a touch-sensitive control panel that allows a user to hold their hand to move or scale a map on a screen by moving their hand.
  • the movement of the hand is detected by a CCD camera or a CMOS camera.
  • a distance of the palm from the control panel can be detected by ultrasonic sensors. Another possibility for the distance determination is the evaluation of brightness values of the palm.
  • the HMI device also detects this movement. Then it can happen that the map section is moved again and changed in the scale becomes. Such a "tearing" at the end of an operation should be avoided if possible.
  • a method for operating a navigation system is likewise known. Thereafter, a position of a finger is detected relative to a display device of the navigation device, and a representation of navigation information is adjusted as a function of the determined position of the finger. As a result, the user can, for example, effect an enlargement of the area (scaling) of the navigation information. A displacement of the section shown is thereby possible.
  • the position of the finger over the display surface can be detected with four optical sensors mounted on corners of the display surface. For this purpose, the finger is illuminated by means of a LED with modulated light which impinges on the sensors at different times. A run time measurement then gives the position of the finger.
  • the user can either first move the finger into a predetermined volume of space above the display surface in which a movement of the finger does not change the image content.
  • Another possibility is to change the "areal extent" of the finger or to carry out a specific movement with the finger, meaning in this case that the user has to move the finger very close to the display area, and then laterally
  • Such "gestures” can be recognized by the system and used to stop the motion detection.
  • An embodiment provides that also operating elements that are integrated into the map display can be selected with the finger. For this purpose, the finger must dwell on the operating element for a predetermined period of operation.
  • the invention has for its object to provide a user with an easy-to-use display device, which is a changing a La ge and / or a scaling (ie moving and / or zooming) of an image content on a screen allows.
  • the method according to the invention sets a position and / or a scaling of an image content on a screen of a display device as a function of a current position of a user's hand. If the hand changes its position, the position of the image content is thereby changed accordingly (shifting of the image content) and / or the scaling of the image content is changed (zooming in or out). The position of the hand is detected by an optical sensor device.
  • the display device may be, for example, that of a navigation device or an infotainment system of a motor vehicle.
  • embodiments of the method are also encompassed by the invention which are executed on a mobile terminal so as to shift and / or to the image content of a screen, for example a smartphone, a tablet PC, a personal digital assistant (PDA) or a notebook to zoom.
  • a mobile terminal so as to shift and / or to the image content of a screen, for example a smartphone, a tablet PC, a personal digital assistant (PDA) or a notebook to zoom.
  • PDA personal digital assistant
  • the image content is only changed by the display device as a function of the determined position of the hand if the display device is in a mode which is referred to here as a coupling mode.
  • the hand first has to be "coupled” to the display device, for this purpose a relative finger position of several fingers of the hand is recognized according to the method by a gesture recognition device of the optical sensor device. tearing ", because the position of the hand is crucial and not that of the individual fingers.
  • the display device is operated only in the coupling mode while signaled by the gesture recognition device is that the finger position matches a predetermined operating gesture.
  • the gesture recognition device checks whether at least two fingertips touch each other as an operating gesture. By merging the fingers, the user can thus activate the shifting or zooming process (coupling mode activated) and then adjust the image content intuitively according to his needs by moving his hand. If he then separates the fingertips from each other again (coupling mode disabled), the hand is decoupled from the display device and it can change the position of the hand arbitrarily without affecting the image content.
  • the described operating gesture (touching of fingertips) has the additional advantage that the user himself generates a haptic feedback at the fingertips, and it is so clear to him when the coupling mode is active.
  • the inventive method has the advantage that the described "tearing" of the image content can now be easily avoided.
  • the independent detection of the hand position on the one hand and the finger position on the other hand allows the user to couple his hand movements with the image content at any time, as desired
  • 3D image data of a 3D camera of the sensor device are preferably used as the basis, whereby the 3D camera is preferably arranged outside the display device and monitors one from there
  • a TOF camera TOF - Time of Flight
  • a TOF camera is characterized by a particularly large detection range, so monitored by means of a single TOF camera multiple screens in the manner described and their image content can be controlled.
  • the shading is not a problem, as it results from the fact that by means of a 3D camera usually only from one side of a hand can be viewed. Such shading can be achieved by means of a manual
  • a further advantage of a TOF camera is that it can be used to record 3D image data even in changeable lighting conditions, even for the If infrared light is used for image acquisition, this can be reliably distinguished from, for example, warming solar radiation on the basis of the modulation pattern of the TOF light source.
  • a further advantage results if the display device sets an initial position which the hand has when activating the coupling mode as the reference position and then determines a distance of the current position of the hand from the reference position in the coupling mode and / or the scaling and / or or shift (change in position), depending on the distance is set.
  • the user can "catch up" in an advantageous manner, meaning that the user only has to perform small hand movements for a larger displacement, for example, the user can first activate the coupling mode for a large shift of the image content to the right (eg, merge fingertips).
  • the motor vehicle according to the invention has a display device with a screen for displaying an image content, for example a navigation map, as well as an optical sensor device
  • the optical sensor device is designed as a function of a position of a hand to generate a signal in front of the screen, by which then the image content on the screen in the position and / or scaling of the display device is changed by the display device.
  • the motor vehicle according to the invention is characterized in this case by a gesture recognition device and is designed to carry out an embodiment of the method according to the invention by means of the gesture recognition device.
  • a development of the motor vehicle according to the invention comprises an SD camera for detecting the position of the hand and / or for determining the position of the finger, wherein the 3D camera in a headliner of the motor vehicle is arranged. From this position, a plurality of screens are preferably observed by means of a single 3D camera or a single SD camera stereo arrangement of two 3D cameras and an operation in the manner described is made possible for each of these screens. This makes the control of multiple screens particularly little effort.
  • a motor vehicle already has an operating device with an optical sensor device, which is also suitable for carrying out an embodiment of the method according to the invention, then it is provided in particular for another display device, which differs from the already existing operating device of the motor vehicle, this optical sensor device the existing operating device is used to allow control of the image content by hand for the further display device.
  • this optical sensor device no additional optical sensor device has to be provided for the additional display device, which brings about an advantageous reduction of the hardware expenditure when manufacturing the motor vehicle.
  • the invention also encompasses a computer program product with a program code stored on at least one storage medium, which is designed to execute an embodiment of the method according to the invention when the program code is executed by a processor device of a mobile terminal on the basis of image data of an optical sensor device of the mobile terminal ,
  • the computer program is provided in particular in the form of a so-called "app" (application application program), as it can be used for smartphones or tablet PCs
  • the invention also includes a correspondingly equipped mobile terminal with such a computer program product Terminal may be provided in the already exemplified embodiments (smartphone, tablet PC, etc.).
  • FIG. 2 is a sketch of an operating process, as an operator on the basis of an embodiment of the inventive method is made possible.
  • the reproduction device 12 can be, for example, an infotainment system, an audio system, a navigation system, a television system, a telephone, an instrument cluster or a head-up display.
  • the sensor device 10 comprises a measuring device 14 and a calculation unit 16.
  • the measuring device 14 comprises an optical sensor 18, which may be, for example, a TOF camera (such as a PMD camera, PMD photon mixing detector).
  • the optical sensor 18 can also be, for example, a stereo camera or even TOF cameras in stereo arrangement. In the example shown in FIG. 1, it has been assumed that the optical sensor 18 is a PMD camera.
  • the optical sensor 18 may be arranged, for example, in a headliner of the motor vehicle.
  • the optical sensor 18 may be configured in a manner known per se, i. a light source 20, e.g. an infrared light illuminates a detection area 22, for example a space above a center console of the motor vehicle. If there is an object in it, for example a hand 24 of the driver of the motor vehicle, then the electromagnetic radiation emitted by the light source 20 is reflected back by the hand 24 to a sensor array 26. By means of the sensor array 26, 3D image data can then be generated which specify 3D coordinates for individual surface elements of the hand 24. The 3D image data are transmitted from the measuring device 14 to the calculation unit 16.
  • a light source 20 e.g. an infrared light illuminates a detection area 22, for example a space above a center console of the motor vehicle. If there is an object in it, for example a hand 24 of the driver of the motor vehicle, then the electromagnetic radiation emitted by the light source 20 is reflected back by the hand 24 to a sensor array 26.
  • 3D image data can then be generated which specify 3
  • the calculation unit 16 may be, for example, a control unit of the motor vehicle.
  • the Evaluated signals and then provided the vehicle the evaluated data available by, for example, transmitted to the display device 12.
  • limbs such as a hand, can be segmented from the 3D image data, whereby, for example, the position of a fingertip in the detection area 22 can be determined.
  • known per se segmentation algorithms can be used.
  • the 3D image data of the sensor array 26 of the optical sensor 18 may also represent a sequence of successive 3D images, i. With the optical sensor 18 and movements of the hand 24 can be detected. By tracing the trajectory, for example the fingertip in this 3D image sequence, in particular by tracking the position and the speed of the fingertip, a motion gesture indicated by the fingertip can be extrapolated from the trajectory.
  • FIGS. 2 and 3 describe the mode of operation of the optical sensor device as a user interface in connection with a navigation device, which here functions as a display device 12, for which reason reference is made below to the playback device 12 as the navigation device 12 with the same reference number.
  • the navigation device 12 displays on a screen 28, which may be installed, for example, in a center console of the motor vehicle, a road map 30 as image content.
  • the optical sensor 26 may, for example, be arranged in a headliner above the center console and observe a spatial area above the center console as the detection area 22, ie. H. generated 3D image data for objects located therein to this space area.
  • the measuring device 14 transmits the 3D image data to the calculation unit 16, which determines in the described manner whether a hand 24 is located in front of the screen 28 and which finger position the hand has.
  • the calculation unit 16 determines a current position P of the hand, for example a reference point on a back of the hand 24, as well as a position of a fingertip 32 of a thumb 34 and a finger tip 36 of an index finger 38.
  • the finger position of the thumb 34 and the index finger 28, in particular the relative position of the fingertips 32, 36 can be compared with a predetermined desired gesture. This may be, for example, that touch the fingertips 32, 36. If this is the case, then this is the navigation device 12 together with the current position P signals.
  • the user can then move with his hand 24, the road map 30 laterally on the screen 28, ie up, down, right or left and also a scale of the road map 30 change. He does not have to touch the screen 28 for this purpose, but can simply move his hand 24 in front of the screen 28 either correspondingly (moving the card 30) or move away from the screen 28 or to move to it (changing the scale).
  • FIG. 2 shows how the user can perform a movement in front of the screen 28 with the hand 24 without the image content of the screen 28 changing. For this he keeps the fingertips 32, 36 separated from each other. In Fig. 2, this is symbolized by two separate circles around the fingertips 32, 36.
  • the user has now positioned his hand 24 in front of the screen 28 when the map view is activated (road map 30 is displayed), he can activate the control of the map by, as shown in FIG. 3, in the example, thumb 34 and index finger 38 so that the fingertips 32, 36 touch. In Fig. 3, this state is symbolized by a single closed curve around both fingertips 32, 36.
  • the current position is defined as the reference point PO for the control of the navigation device 12.
  • the current position P of the hand 24 can be further changed. This changes a distance A between the current position P and the reference point PO.
  • the representation of the road map 30 is then changed depending on the distance A and the direction of movement of the hand 24. For example, by movements 40 on the screen 28 to and away from the hand 24, e.g. into or out of the street map 30. With a horizontal or vertical movement 42 in front of the screen 28, the road map 30 is moved in the appropriate direction 42.
  • the example shows how the physically correct location of an occupant (for example, by a TOF camera) or body parts of the occupant can be used to detect gestures or hand configurations. If the user positions his / her hand in front of a display when the map view is activated, then a control of the hand can be activated or deactivated by means of a corresponding finger position. There is no need for a button for the interaction.
  • the user can navigate with intuitive gestures to position the hand in the map.
  • a gesture recognition unit which may be provided in the calculation unit 16
  • gestures of the fingers can be properly extracted in a manner known per se, whereby the position of fingertips can be determined at any time. If one then follows the trajectory (trajectory) of the hand, e.g.
  • control signals for adjusting the position and / or scaling of the road map and other image content can be set.
  • the driver does not need to locate keys or softkeys (panels on a screen) before using a shift and / or a scaling function, but can immediately activate the card controller with the hand freely positioned in front of the screen 28. This also advantageously reduces the distraction of a driver while driving when operating a navigation device or other playback device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Steuern einer Anzeigeeinrichtung (12), durch welche auf einem Bildschirm (28) ein Bildinhalt (30) angezeigt wird. Durch eine optische Sensoreinrichtung (10) wird eine Position (P) einer Hand (24) vor dem Bildschirm (28) ermittelt und in Abhängigkeit von der aktuellen Position (P) der Bildinhalt verschoben und/oder gezoomt. Der Erfindung liegt die Aufgabe zugrunde, einem Benutzer eine leicht bedienbare Anzeigeeinrichtung bereitzustellen, welche ein Verschieben und/oder Zoomen des Bildinhalts (30) ermöglicht. Der Bildinhalt (30) wird durch die Anzeigeeinrichtung hierzu nur dann in Abhängigkeit von der ermittelten Position (P) der Hand (24) verändert, falls sich die Anzeigeeinrichtung (12) in einem Koppelmodus befindet. Durch eine Gestenerkennungseinheit (16) der optischen Sensoreinrichtung wird dabei eine relative Fingerstellung mehrerer Finger (34, 38) der Hand (24) erkannt und die Anzeigeeinrichtung (12) nur in dem Koppelmodus betrieben, während durch die Gestenerkennungseinheit signalisiert wird, dass die Fingerstellung (34, 38) mit einer vorbestimmten Bediengeste übereinstimmt.

Description

Zoomen und Verschieben eines Bildinhalts einer Anzeigeeinrichtung
BESCHREIBUNG: Die Erfindung betrifft ein Verfahren zum Betreiben einer Anzeigeeinrichtung, durch welche auf einem Bildschirm ein Bildinhalt angezeigt wird. Eine Lage und/oder eine Skalierung des Bildinhalts können durch Bewegen einer Hand vor dem Bildschirm verändert werden. Mit anderen Worten kann durch eine Handbewegung ein Zoomen und/oder Verschieben des Bildinhalts bewirkt werden. Hierzu wird eine Position der Hand durch eine optische Sensoreinrichtung wiederholt ermittelt. Ein solches Verfahren ist auch aus der DE 10 2008 016 215 A1 bekannt. Zu der Erfindung gehören auch ein Kraftfahrzeug, ein mobiles Endgerät, wie beispielsweise ein Smartphone oder einen Tablet-PC, sowie ein Computerprogrammprodukt, mit dem ein her- kömmliches mobiles Endgerät zum Durchführen des erfindungsgemäßen Verfahrens ertüchtigt wird.
In der genannten Druckschrift ist ein Bediengerät für ein Navigationssystem beschrieben. Das Gerät weist ein berührungsempfindliches Bedienfeld auf, über das ein Benutzer die Hand halten kann, um so durch Bewegen der Hand einen Kartenausschnitt auf einem Bildschirm zu verschieben oder zu skalieren. Die Bewegung der Hand wird durch eine CCD-Kamera oder eine CMOS-Kamera erfasst. Ein Abstand der Handfläche von dem Bedienfeld kann durch Ultraschallsensoren erfasst werden. Eine andere Möglichkeit für die Abstandsermittlung besteht in der Auswertung von Helligkeitswerten der Handfläche. Bei diesem aus dem Stand der Technik bekannten System kann es sich als schwierig erweisen, zwischen einer Bedienhandlung des Benutzers einerseits und einem Zurückziehen der Hand nach Beendigung des Bedienvorgangs andererseits zu unterscheiden. Ist der Benutzer mit dem Ein- stellen des Kartenausschnitts und der Skalierung der Karte fertig, möchte er in der Regel die Hand wieder dem Bedienfeld entfernen. Das Bediengerät erfasst jedoch auch diese Bewegung. Dann kann es passieren, dass der Kartenausschnitt noch einmal verschoben und in der Skalierung verändert wird. Ein solches„Verreißen" am Ende eines Bedienvorgangs soll nach Möglichkeit vermieden werden.
Aus der DE 10 2006 037 157 A1 ist ebenfalls ein Verfahren zum Betreiben eines Navigationssystems bekannt. Danach wird eine Position eines Fingers relativ zu einer Anzeigevorrichtung des Navigationsgeräts erfasst und eine Darstellung von Navigationsinformationen in Abhängigkeit von der ermittelten Position des Fingers angepasst. Hierdurch kann der Nutzer beispielsweise eine Ausschnittsvergrößerung (Skalierung) der Navigationsinformationen bewirken. Auch ein Verschieben des dargestellten Ausschnitts ist hierdurch möglich. Die Position des Fingers über der Anzeigefläche kann mit vier optischer Sensoren erfasst werden, die an Ecken der Anzeigefläche angebracht sind. Der Finger wird hierzu mittels einer LED mit moduliertem Licht angestrahlt, das zu unterschiedlichen Zeiten an den Sensoren auftrifft. Eine Lauf- Zeitmessung ergibt dann die Position des Fingers. Um den Finger nach Beendigung eines Bedienvorgangs von der Anzeige zurückziehen zu können, kann der Benutzer entweder den Finger zunächst in ein vorbestimmtes Raumvolumen über der Anzeigefläche bewegen, in welchem eine Bewegung des Fingers keine Veränderung des Bildinhalts bewirkt. Eine andere Mög- lichkeit besteht darin, eine„flächige Ausdehnung" des Fingers zu verändern oder mit dem Finger eine bestimmte Bewegung auszuführen. Mit flächiger Ausdehnung ist hierbei gemeint, dass der Benutzer den Finger sehr nahe an die Anzeigefläche heranbewegen muss, um ihn dann seitlich herausbewegen zu können. Solche„Gesten" können von dem System er- kannt und zum Abstellen der Bewegungserkennung genutzt werden. Eine Ausführungsform sieht vor, dass auch Bedienelemente, die in die Kartendarstellung integriert sind, mit dem Finger ausgewählt werden können. Der Finger muss hierzu eine vorgegebene Betätigungszeitspanne über dem Bedienelement verweilen.
Bei dem bekannten System kann es sich als problematisch erweisen, dass der Nutzer mit dem Finger immer dann, wenn er eine Bedienfläche betätigen möchte, zunächst die Verschiebung des Kartenausschnitts deaktivieren muss. Vergisst er dies einmal, so wird er unweigerlich beim Ausrichten sei- nes Fingers auf die Bedienfläche den darunter dargestellten Kartenausschnitt in der beschriebenen Weise „verreißen".
Der Erfindung liegt die Aufgabe zugrunde, einem Benutzer eine leicht bedienbare Anzeigeeinrichtung bereitzustellen, welche ein Verändern einer La- ge und/oder einer Skalierung (d.h. Verschieben und/oder Zoomen) eines Bildinhalts auf einem Bildschirm ermöglicht.
Die Aufgabe wird durch ein Verfahren gemäß Patentanspruch 1 , ein Kraft- fahrzeug gemäß Patentanspruch 6, ein Computerprogrammprodukt gemäß Patentanspruch 9 sowie ein mobiles Endgerät gemäß Patentanspruch 10 gelöst. Vorteilhafte Weiterbildungen der Erfindungen sind durch die Unteransprüche gegeben. Das erfindungsgemäße Verfahren setzt bei dem eingangs beschriebenen Ansatz an, eine Lage und/oder eine Skalierung eines Bildinhalts auf einem Bildschirm einer Anzeigeeinrichtung in Abhängigkeit von einer aktuellen Position einer Hand eines Benutzers einzustellen. Verändert die Hand ihre Position, so wird hierdurch entsprechend die Lage des Bildinhalts verändert (Verschiebung des Bildinhalts) und/oder die Skalierung des Bildinhalts verändert (Hinein- oder Hinauszoomen). Die Position der Hand wird durch eine optische Sensoreinrichtung erfasst. Wichtig ist bei dem erfindungsgemäßen Verfahren, dass die Position einer Hand vor dem Bildschirm ermittelt wird und nicht nur diejenige eines einzelnen Fingers, um den Bildinhalt einzustel- len. Bei der Anzeigeeinrichtung kann es sich beispielsweise um diejenige einer Navigationseinrichtung oder eines Infotainmentsystems eines Kraftfahrzeugs handeln. Von der Erfindung sind aber auch Ausführungsformen des Verfahrens umfasst, welche auf einem mobilen Endgerät ausgeführt werden, um so den Bildinhalt eines Bildschirms, beispielsweise eines Smartphones, eines Tablet-PCs, eines Personal Digital Assistants (PDA) oder eines Notebooks zu verschieben und/oder zu zoomen.
Bei dem erfindungsgemäßen Verfahren ist nun vorgesehen, dass durch die Anzeigeeinrichtung nur dann der Bildinhalt in Abhängigkeit von der ermittel- ten Position der Hand verändert wird, falls sich die Anzeigeeinrichtung in einem Modus befindet, der hier als Koppelmodus bezeichnet ist. Mit anderen Worten muss zunächst die Hand mit der Anzeigeeinrichtung „gekoppelt" werden. Hierzu wird gemäß dem Verfahren durch eine Gestenerkennungseinrichtung der optischen Sensoreinrichtung eine relative Fingerstellung mehrerer Finger der Hand erkannt. Der Benutzer kann ja seine Fingerstellung problemlos ändern, ohne hierdurch den Bildinhalt zu„verreißen", da die Position der Hand entscheidend ist und nicht diejenige der einzelnen Finger. Die Anzeigeeinrichtung wird dabei nur in dem Koppelmodus betrieben, während durch die Gestenerkennungseinrichtung signalisiert wird, dass die Fingerstellung mit einer vorbestimmten Bediengeste übereinstimmt.
Der Benutzer kann also jederzeit durch Verändern seiner Fingerstellung den Koppelmodus aktivieren oder deaktivieren. So ist bevorzugt vorgesehen, dass durch die Gestenerkennungseinrichtung überprüft wird, ob sich als Bediengeste zumindest zwei Fingerspitzen berühren. Durch Zusammenführen der Finger kann der Benutzer so den Verschiebe- bzw. Zoomvorgang aktivieren (Koppelmodus aktiviert) und dann durch Bewegen der Hand den Bildin- halt intuitiv nach seinen Bedürfnissen einstellen. Trennt er die Fingerspitzen dann wieder voneinander (Koppelmodus deaktiviert), ist die Hand von der Anzeigeeinrichtung entkoppelt und er kann die Position der Hand beliebig ohne Auswirkung auf den Bildinhalt verändern. Die beschriebene Bediengeste (Berühren von Fingerspitzen) weist den zusätzlichen Vorteil auf, dass der Benutzer sich selbst ein haptisches Feedback an den Fingerspitzen erzeugt, und ihm so klar ist, wann der Koppelmodus aktiv ist.
Das erfindungsgemäße Verfahren weist den Vorteil auf, dass das beschriebene„Verreißen" des Bildinhalts nun einfach vermieden werden kann. Die erfindungsgemäße unabhängige Erfassung der Handposition einerseits und der Fingerstellung andererseits erlaubt es dem Benutzer, seine Handbewegungen wie gewünscht jederzeit Zeit mit dem Bildinhalt zu koppeln bzw. sie wieder zu entkoppeln. Zum Ermitteln der Position der Hand und/oder zum Erkennen der Fingerstellung werden bevorzugt 3D-Bilddaten einer 3D-Kamera der Sensoreinrichtung zugrunde gelegt. Die 3D-Kamera ist dabei bevorzugt außerhalb der Anzeigeeinrichtung angeordnet und überwacht von dort aus einen vorbestimmten Raumbereich außerhalb der Anzeigeeinrichtung. Als besonders geeignet hat sich als 3D-Kamera eine TOF-Kamera (TOF - Time of Flight) erwiesen. Mittels einer 3D-Kamera ist es möglich, 3D-Bilddaten zu erzeugen, mittels welchen einzelne Finger der Hand und der Handrücken voneinander unterschieden werden können. Eine TOF-Kamera zeichnet sich hierbei durch einen besonders großen Erfassungsbereich aus, sodass mittels einer einzigen TOF-Kamera mehrere Bildschirme in der beschriebenen Weise überwacht und deren Bildinhalte gesteuert werden können. Bei einer 3D-Kamera stellt auch die Abschattung auch kein Problem dar, wie sie sich dadurch ergibt, dass mittels einer 3D-Kamera in der Regel nur von einer Seite einer Hand betrachtet werden kann. Eine solche Abschattung kann mittels eines Hand- modells kompensiert werden, wie es beispielsweise von dem Produkt „Kinect" ® des Unternehmens Microsoft ® bekannt ist. Ein weiterer Vorteil einer TOF-Kamera besteht darin, dass mit ihr 3D-Bilddaten auch bei veränderlichen Lichtverhältnissen besonders robust erfasst werden können. Selbst für den Fall, dass Infrarotlicht zur Bilderfassung genutzt wird, kann dieses zuverlässig von beispielsweise wärmender Sonneneinstrahlung anhand des Modulationsmusters der TOF-Lichtquelle unterschieden werden.
Ein weiterer Vorteil ergibt sich, wenn durch die Anzeigeeinrichtung eine Aus- gangsposition, welche die Hand beim Aktivieren des Koppelmodus inne hat, als Referenzposition festgelegt wird und dann im Koppelmodus ein Abstand der aktuellen Position der Hand von der Referenzposition ermittelt wird und die Skalierung und/oder Verschiebung (Veränderung der Lage), in Abhängigkeit von dem Abstand eingestellt wird. Der Benutzer kann so in vorteilhaf- ter Weise„nachgreifen". Dies bedeutet, dass der Benutzer für eine größere Verschiebung nur kleine Handbewegungen ausführen muss. Beispielsweise kann der Benutzer für eine große Verschiebung des Bildinhalts nach rechts zunächst den Koppelmodus aktivieren (z.B. Fingerspitzen zusammenführen) und die Hand dann nach rechts bewegen, anschließend den Koppelmodus deaktivieren (Fingerspitzen trennen), die Hand wieder nach links zurückbewegen, und dann durch erneutes Aktivieren des Koppelmodus und Bewegen der Hand nach rechts die Verschiebung der Bildinhalts nach rechts fortsetzen. Wie bereits ausgeführt gehört zu der Erfindung auch ein Kraftfahrzeug. Das erfindungsgemäße Kraftfahrzeug weist eine Anzeigeeinrichtung mit einem Bildschirm zum Anzeigen eines Bildinhalts, beispielsweise einer Navigationskarte, sowie eine optische Sensoreinrichtung auf. Die optische Sensoreinrichtung ist dazu ausgelegt, in Abhängigkeit von einer Position einer Hand vor dem Bildschirm ein Signal zu erzeugen, durch welches dann von der Anzeigeeinrichtung der Bildinhalt auf dem Bildschirm in der Lage und/oder Skalierung von der Anzeigeeinrichtung verändert wird. Das erfindungsgemäße Kraftfahrzeug zeichnet sich hierbei durch eine Gestenerkennungseinrichtung aus und ist dazu ausgelegt, mittels der Gestenerkennungseinrichtung eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen.
Eine Weiterbildung des erfindungsgemäßen Kraftwagens umfasst eine SD- Kamera zum Erfassen der Position der Hand und/oder zum Ermitteln der Fingerstellung, wobei die 3D-Kamera in einem Dachhimmel des Kraftfahr- zeugs angeordnet ist. Von dieser Position aus werden bevorzugt mittels einer einzigen 3D-Kamera oder auch einer einzigen SD-Kamera- Stereoanordnung aus zwei 3D-Kameras mehrere Bildschirme beobachtet und zu jedem dieser Bildschirme eine Bedienung in der beschriebenen Wei- se ermöglicht. Dies macht die Steuerung mehrerer Bildschirme besonders aufwandsarm. Weist also ein Kraftwagen bereits eine Bedieneinrichtung mit einer optischen Sensoreinrichtung auf, die auch zum Durchführen einer Ausführungsform des erfindungsgemäßen Verfahrens geeignet ist, so ist insbesondere vorgesehen, dass für eine weitere Anzeigeeinrichtung, die von der bereits vorhandenen Bedieneinrichtung des Kraftfahrzeugs verschieden ist, diese optische Sensoreinrichtung der vorhandenen Bedieneinrichtung genutzt wird, um für die weitere Anzeigeeinrichtung eine Steuerung des Bildinhalts mittels der Hand zu ermöglichen. So ist für die zusätzliche Anzeigeeinrichtung keine zusätzliche optische Sensoreinrichtung bereitzustellen, was eine vorteilhafte Reduzierung des Hardwareaufwands beim Herstellen des Kraftfahrzeugs mit sich bringt.
Wie bereits ausgeführt ist auch Bestandteil der Erfindung, die beschriebene Einstellung des Bildinhalts bei einem mobilen Endgerät zu ermöglichen. Hierzu umfasst die Erfindung auch ein Computerprogrammprodukt mit einem auf zumindest einem Speichermedium gespeicherten Programmcode, welcher dazu ausgelegt ist, bei Ausführen des Programmcodes durch eine Prozessoreinrichtung eines mobilen Endgeräts auf der Grundlage von Bilddaten einer optischen Sensoreinrichtung des mobilen Endgeräts eine Ausführungs- form des erfindungsgemäßen Verfahrens durchzuführen. Das Computerprogramm ist insbesondere in Form einer so genannten „App" (Application - Anwendungsprogramm) bereitgestellt, wie sie für Smartphones oder Tablet- PCs genutzt werden kann. Natürlich gehört zu der Erfindung auch ein entsprechend ausgestattetes mobiles Endgerät mit einem solchen Computerprogrammprodukt. Das erfindungsgemäße mobile Endgerät kann in den bereits beispielhaft angeführten Ausführungsformen (Smartphone, Tablet-PC etc.) bereitgestellt sein.
Im Folgenden ist die Erfindung noch einmal anhand eines konkreten Ausführungsbeispiels erläutert. Hierzu zeigt: ein Blockschaltbild zu einer optischen Sensoreinrichtung, die in einer Ausführungsform des erfindungsgemäßen Kraftfahrzeugs eingebaut sein kann, und Fig. 2 eine Skizze zu einem Bedienvorgang, wie er einer Bedienperson auf der Grundlage einer Ausführungsform des erfindungsgemäßen Verfahrens ermöglicht wird.
Die gezeigten Beispiele stellen bevorzugte Ausführungsformen der Erfindung dar.
In Fig. 1 sind von einem Kraftwagen, beispielsweise einem Personenkraftwagen, eine optische Sensoreinrichtung 10 und eine Wiedereingabeeinrichtung 12 gezeigt. Bei der Wiedergabeeinrichtung 12 kann es sich beispiels- weise um ein Infotainmentsystem, ein Audiosystem, ein Navigationssystem, ein Fernsehsystem, ein Telefon, ein Kombiinstrument oder ein Head-up- Display handeln. Die Sensoreinrichtung 10 umfasst eine Messeinrichtung 14 und eine Berechnungseinheit 16. Die Messeinrichtung 14 umfasst einen optischen Sensor 18, der beispielsweise eine TOF-Kamera (etwa eine PMD- Kamera, PMD - Photonenmischdetektor) sein kann. Es kann sich bei dem optischen Sensor 18 auch beispielsweise um eine Stereo-Kamera oder auch um TOF-Kameras in Stereoanordnung handeln. In dem in Fig. 1 gezeigten Beispiel ist davon ausgegangen, dass es sich bei dem optischen Sensor 18 um eine PMD-Kamera handelt. Der optische Sensor 18 kann beispielsweise in einem Dachhimmel des Kraftfahrzeugs angeordnet sein.
Der optische Sensor 18 kann in an sich bekannter Weise ausgestaltet sein, d.h. eine Leuchtquelle 20, z.B. eine Infrarotleuchte, beleuchtet einen Erfassungsbereich 22, beispielsweise einen Raum über einer Mittelkonsole des Kraftfahrzeugs. Befindet sich darin ein Objekt, beispielsweise einer Hand 24 des Fahrers des Kraftfahrzeugs, so wird die von der Leuchtquelle 20 ausgestrahlte elektromagnetische Strahlung von der Hand 24 zu einem Sensorar- ray 26 zurückgeworfen. Mittels des Sensorarrays 26 können dann 3D- Bilddaten erzeugt werden, welche 3D-Koordinaten zu einzelnen Flächenele- menten der Hand 24 angeben. Die 3D-Bilddaten werden von der Messeinrichtung 14 an die Berechnungseinheit 16 übertragen.
Bei der Berechnungseinheit 16 kann es sich beispielsweise um ein Steuergerät des Kraftfahrzeugs handeln. In der Berechnungseinheit 16 werden die Signale ausgewertet und dann dem Fahrzeug die ausgewerteten Daten zur Verfügung gestellt, indem sie beispielsweise an die Wiedergabeeinrichtung 12 übertragen werden. Durch die Berechnungseinheit 16 können Gliedmaßen, wie beispielsweise eine Hand, aus den 3D-Bilddaten segmentiert wer- den, wodurch beispielsweise die Position einer Fingerspitze in dem Erfassungsbereich 22 ermittelt werden kann. Hier können an sich bekannte Segmentierungsalgorithmen zugrunde gelegt werden.
Durch die 3D-Bilddaten des Sensorarrays 26 des optischen Sensors 18 kann auch eine Sequenz von aufeinander folgenden 3D-Bildern repräsentiert sein, d.h. mit dem optischen Sensor 18 können auch Bewegungen der Hand 24 erfasst werden. Durch Verfolgen der Trajektorie beispielsweise der Fingerspitze in dieser 3D-Bildsequenz, insbesondere durch Verfolgen der Position und der Geschwindigkeit der Fingerspitze, kann so eine mit der Fingerspitze angedeutete Bewegungsgeste aus der Trajektorie extrapoliert werden.
In Fig. 2 und Fig. 3 ist die Funktionsweise der optischen Sensoreinrichtung als Bedienschnittstelle in Zusammenhang mit einem Navigationsgerät beschrieben, das hier als Wiedergabeeinrichtung 12 fungiert, weshalb nachfol- gend auf das Wiedergabegerät 12 als das Navigationsgerät 12 mit demselben Bezugszeichen verwiesen wird. Das Navigationsgerät 12 zeigt auf einen Bildschirm 28, der beispielsweise in einer Mittelkonsole des Kraftfahrzeugs eingebaut sein kann, eine Straßenkarte 30 als Bildinhalt an. Der optische Sensor 26 kann beispielsweise in einem Dachhimmel über der Mittelkonsole angeordnet sein und einen Raumbereich über der Mittelkonsole als Erfassungsbereich 22 beobachten, d. h. zu diesem Raumbereich 3D-Bilddaten zu darin befindlichen Objekten erzeugt. Die Messeinrichtung 14 überträgt die 3D-Bilddaten an die Berechnungseinheit 16, welche in der beschriebenen Weise ermittelt, ob sich eine Hand 24 vor dem Bildschirm 28 befindet und welche Fingerstellung die Hand aufweist.
Durch die Berechnungseinheit 16 wird eine aktuelle Position P der Hand, beispielsweise eines Referenzpunkts auf einem Handrücken der Hand 24, sowie eine Position einer Fingerspitze 32 eines Daumens 34 und einer Fin- gerspitze 36 eines Zeigefingers 38 ermittelt. Die Fingerstellung des Daumens 34 und des Zeigefingers 28, insbesondere die relative Position der Fingerspitzen 32, 36 können mit einer vorbestimmten Sollgeste verglichen werden. Diese kann z.B. darin bestehen, dass sich die Fingerspitzen 32, 36 berühren. Ist dies der Fall, so wird auch dies dem Navigationsgerät 12 zusammen mit der aktuellen Position P signalisiert. Der Benutzer kann dann mit seiner Hand 24 die Straßenkarte 30 seitlich auf dem Bildschirm 28 verschieben, also nach oben, unten, rechts oder links und auch eine Skalierung der Straßenkarte 30 verändern. Er muss hierzu den Bildschirm 28 nicht berühren, sondern kann einfach seine Hand 24 vor dem Bildschirm 28 entweder entsprechend seitlich bewegen (Verschieben der Karte 30) oder vom Bildschirm 28 weg bewegen bzw. auf ihn zu bewegen (Verändern der Skalierung).
Hierbei kann der Benutzer allerdings entscheiden, wann eine Bewegung sei- ner Hand 24 eine Veränderung des Bildinhalts bewirkt und wann nicht. In Fig. 2 ist gezeigt, wie der Benutzer mit der Hand 24 eine Bewegung vor dem Bildschirm 28 ausführen kann, ohne dass sich hierbei der Bildinhalt des Bildschirms 28 verändert. Hierzu hält er die Fingerspitzen 32, 36 voneinander getrennt. In Fig. 2 ist dies durch zwei getrennte Kreise um die Fingerspitzen 32, 36 symbolisiert.
Hat der Benutzer nun seine Hand 24 bei aktivierter Kartenansicht (Straßenkarte 30 wird angezeigt) vor dem Bildschirm 28 positioniert, so kann er die Steuerung der Karte aktivieren, indem er, wie in Fig. 3 gezeigt, in dem Bei- spiel Daumen 34 und Zeigefinger 38 zusammenführt, sodass sich die Fingerspitzen 32, 36 berühren. In Fig. 3 ist dieser Zustand durch eine einzige geschlossene Kurve um beide Fingerspitzen 32, 36 symbolisiert. Bei der zusammengeführten Stellung der Fingerspitzen 32, 36 wird die aktuelle Position als Referenzpunkt PO für die Steuerung des Navigationsgeräts 12 festge- legt. Ausgehend von dem Reverenzpunkt PO kann nun die aktuelle Position P der Hand 24 weiter verändert werden. Hierdurch verändert sich ein Abstand A zwischen der aktuellen Position P und dem Referenzpunkt PO. Die Darstellung der Straßenkarte 30 wird dann in Abhängigkeit von dem Abstand A und der Bewegungsrichtung der Hand 24 verändert. Beispielsweise kann durch Bewegungen 40 auf dem Bildschirm 28 zu und von diesem weg mit der Hand 24 z.B. in die Straßenkarte 30 hinein- bzw. aus dieser hinausgezoomt werden. Mit einer horizontalen oder vertikalen Bewegung 42 vor dem Bildschirm 28 wird die Straßenkarte 30 in die entsprechende Richtung 42 verschoben.
Durch Öffnen von Daumen 34 und Zeigefinger 38, d. h. durch Auseinanderführen der Fingerspitzen 32, 36, wird die Straßenkarte wieder festgestellt, d.h. eine weitere Veränderung der aktuellen Position P der Hand 24 bewirkt keine weitere Veränderung der Darstellung der Straßenkarte 30. Weitere Bewegungen der Hand 24 erzeugen also keine Steuersignale mehr für das Navigationsgerät 12.
Durch das Beispiel ist gezeigt, wie durch die physikalisch einwandfreie Ort- barkeit eines Insassen (beispielsweise durch eine TOF-Kamera) bzw. von Körperteilen des Insassen Gesten bzw. Handfigurationen erkannt werden können. Positioniert der Benutzer bei aktivierter Kartenansicht seine Hand vor einem Display, so kann so eine Steuerung der Hand durch eine entsprechende Fingerstellung aktiviert bzw. deaktiviert werden. Es ist kein Taster für die Interaktion notwendig. Der Benutzer kann mit intuitiven Gesten passend zur Positionierung der Hand in der Karte navigieren. Mittels einer Gestenerkennungseinheit, die in der Berechnungseinheit 16 bereitgestellt sein kann, können Gesten der Finger in an sich bekannter Weise einwandfrei extrahiert werden, wodurch die Position von Fingerspitzen jederzeit ermittelt werden kann. Verfolgt man dann noch die Trajektorie (Bewegungsbahn) der Hand z.B. mit Position und Geschwindigkeit, können so Steuersignale zum Einstellen der Lage und/oder Skalierung der Straßenkarte und auch anderer Bildinhalte eingestellt werden. Der Fahrer muss so vor Benutzung einer Verschiebungs- und/oder einer Skalierungsfunktion keine Tasten oder Softkeys (Bedienfelder auf einem Bildschirm) orten, sondern kann die Kartensteuerung sofort mit der frei im Raum vor dem Bildschirm 28 positionierten Hand aktivieren. Dies verringert auch in vorteilhafter Weise die Ablenkung eines Fahrers während der Fahrt beim Bedienen eines Navigationsgeräts oder eines anderen Wiedergabegeräts.

Claims

PATENTANSPRÜCHE:
Verfahren zum Steuern einer Anzeigeeinrichtung (12), durch welche auf einem Bildschirm (28) ein Bildinhalt (30) angezeigt wird, wobei durch eine optische Sensoreinrichtung (10) eine Position (P) einer Hand (24) vor dem Bildschirm (28) wiederholt ermittelt wird und in Abhängigkeit von der jeweils ermittelten aktuellen Position (P) eine Lage und/oder eine Skalierung des Bildinhalts (30) eingestellt wird, dadurch gekennzeichnet, dass
der Bildinhalt (30) durch die Anzeigeeinrichtung nur dann in Abhängigkeit von der ermittelten Position (P) verändert wird, falls sich die Anzeigeeinrichtung (12) in einem Koppelmodus befindet, und durch eine Gestenerkennungseinheit (16) der optischen Sensoreinrichtung eine relative Fingerstellung mehrerer Finger (34, 38) der Hand (24) erkannt wird und die Anzeigeeinrichtung (12) nur in dem Koppelmodus betrieben wird, während durch die Gestenerkennungseinheit signalisiert wird, dass die Fingerstellung (34, 38) mit einer vorbestimmten Bediengeste übereinstimmt.
Verfahren nach Anspruch 1 , wobei zum Ermitteln der Position (P) und/oder zum Erkennen der Fingerstellung 3D-Bilddaten einer SD- Kamera (26) der Sensoreinrichtung (10) zugrunde gelegt werden, welche außerhalb der Anzeigeeinrichtung (12) die 3D-Bilddaten in einem vorbestimmten Raumbereich (22) außerhalb der Anzeigeeinrichtung (12) erfasst.
Verfahren nach Anspruch 1 oder 2, wobei durch die Sensoreinrichtung (10) die Position der Hand (24) mittels einer TOF-Kamera ermittelt wird.
Verfahren nach einem der vorhergehenden Ansprüche, wobei durch die Gestenerkennungseinheit (16) überprüft wird, ob sich als die Bediengeste Fingerspitzen zweier Finger (32, 36) der Hand (24) berühren.
Verfahren nach einem der vorhergehenden Ansprüche, wobei durch die Anzeigeeinrichtung (12) eine Ausgangposition (PO), welche die Hand beim Aktivieren des Koppelmodus innehat, als Referenzposition (PO) festgelegt wird und im Koppelmoduls ein Abstand (A) der aktuel- len Position (P) von der Referenzposition (PO) ermittelt wird und die Skalierung und/oder die Verschiebung in Abhängigkeit von dem Abstand (A) eingestellt wird.
Kraftfahrzeug mit einer Anzeigeeinrichtung (12) und einer optischen Sensoreinrichtung (10), wobei die Anzeigerichtung (12) einen Bildschirm (28) zum Anzeigen eines Bildinhalts (30) und zum Einstellen einer Lage und/oder Skalierung des angezeigten Bildinhalts (30) in Abhängigkeit von einem Signal der Sensoreinrichtung (10) ausgelegt ist und wobei die Sensoreinrichtung dazu ausgelegt ist, das Signal in Abhängigkeit von einer Position (P) einer Hand (24) vor dem Bildschirm (28) zu erzeugen,
dadurch gekennzeichnet, dass
die Sensoreinrichtung (10) eine Gestenerkennungseinrichtung (16) aufweist und das Kraftfahrzeug dazu ausgelegt ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
Kraftfahrzeug nach Anspruch 6, wobei eine 3D-Kamera (26) zum Erfassen der Position (P) der Hand (24) und/oder gemäß dem Verfahren ermittelten Fingerstellung in einem Dachhimmel des Kraftfahrzeugs angeordnet ist.
Kraftfahrzeug nach Anspruch 6 oder 7, wobei die optische Sensoreinrichtung (10) Bestandteil einer von der Anzeigeeinrichtung (12) verschiedenen Bedieneinrichtung des Kraftfahrzeugs ist und mit der Anzeigeinrichtung (12) gekoppelt ist.
Computerprogrammprodukt mit einem auf zumindest einem Speichermedium gespeicherten Programmcode, welcher dazu ausgelegt ist, bei Ausführen des Programmcodes durch eine Prozessoreinrichtung eines mobilen Endgeräts auf der Grundlage von Bilddaten einer optischen Sensoreinrichtung des mobilen Endgeräts ein Verfahren nach einem der Ansprüche 1 bis 5 durchzuführen.
Mobiles Endgerät, welches ein Computerprogrammprodukt nach Anspruch 9 aufweist.
PCT/EP2013/003375 2013-01-08 2013-11-08 Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung Ceased WO2014108147A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013000066.1 2013-01-08
DE102013000066.1A DE102013000066A1 (de) 2013-01-08 2013-01-08 Zoomen und Verschieben eines Bildinhalts einer Anzeigeeinrichtung

Publications (1)

Publication Number Publication Date
WO2014108147A1 true WO2014108147A1 (de) 2014-07-17

Family

ID=49582701

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2013/003375 Ceased WO2014108147A1 (de) 2013-01-08 2013-11-08 Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung

Country Status (2)

Country Link
DE (1) DE102013000066A1 (de)
WO (1) WO2014108147A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10821831B2 (en) 2016-09-01 2020-11-03 Volkswagen Aktiengesellschaft Method for interacting with image contents displayed on a display device in a transportation vehicle
WO2021082711A1 (zh) * 2019-10-30 2021-05-06 维沃移动通信有限公司 图像显示方法及电子设备

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014207637B4 (de) 2014-04-23 2025-10-23 Bayerische Motoren Werke Aktiengesellschaft Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges
DE102014017179B4 (de) * 2014-11-20 2022-10-06 Audi Ag Verfahren zum Betreiben eines Navigationssystems eines Kraftfahrzeugs mittels einer Bediengeste
DE102015211521A1 (de) * 2015-06-23 2016-12-29 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102016212682B4 (de) 2016-07-12 2024-08-14 Audi Ag Gestensteuerung mittels eines Laufzeitmessungskamerasystems
DE102017213435A1 (de) 2017-08-02 2019-02-07 Audi Ag Verfahren und Vorrichtung zur Bedienung einer Bedienvorrichtung in Fahrzeugen

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1830244A2 (de) * 2006-03-01 2007-09-05 Audi Ag Verfahren und Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, insbesondere eines Fahrzeugs
WO2010147600A2 (en) * 2009-06-19 2010-12-23 Hewlett-Packard Development Company, L, P. Qualified command
US20110218696A1 (en) * 2007-06-05 2011-09-08 Reiko Okada Vehicle operating device
DE102011089195A1 (de) * 2011-06-30 2013-01-03 Johnson Controls Gmbh Vorrichtung und Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006037157B4 (de) 2005-09-12 2018-04-12 Brose Fahrzeugteile Gmbh & Co. Kommanditgesellschaft, Coburg Kunststoff-Türmodul für eine Kraftfahrzeugtür
US8411034B2 (en) * 2009-03-12 2013-04-02 Marc Boillot Sterile networked interface for medical systems
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
JP2008250774A (ja) 2007-03-30 2008-10-16 Denso Corp 情報機器操作装置
WO2012020865A1 (ko) * 2010-08-13 2012-02-16 엘지전자 주식회사 이동단말기, 디스플레이 장치 및 그 제어 방법
US8817087B2 (en) * 2010-11-01 2014-08-26 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1830244A2 (de) * 2006-03-01 2007-09-05 Audi Ag Verfahren und Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, insbesondere eines Fahrzeugs
US20110218696A1 (en) * 2007-06-05 2011-09-08 Reiko Okada Vehicle operating device
WO2010147600A2 (en) * 2009-06-19 2010-12-23 Hewlett-Packard Development Company, L, P. Qualified command
DE102011089195A1 (de) * 2011-06-30 2013-01-03 Johnson Controls Gmbh Vorrichtung und Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10821831B2 (en) 2016-09-01 2020-11-03 Volkswagen Aktiengesellschaft Method for interacting with image contents displayed on a display device in a transportation vehicle
WO2021082711A1 (zh) * 2019-10-30 2021-05-06 维沃移动通信有限公司 图像显示方法及电子设备

Also Published As

Publication number Publication date
DE102013000066A1 (de) 2014-07-10

Similar Documents

Publication Publication Date Title
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
EP2943367B1 (de) Verfahren zum synchronisieren von anzeigeeinrichtungen eines kraftfahrzeugs
EP1840522B1 (de) Navigationsgerät und Verfahren zum Betreiben eines Navigationsgeräts
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
EP2822812B1 (de) Kraftfahrzeug mit einem elektronischen rückspiegel
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
WO2015135737A1 (de) Verfahren und vorrichtung zum bereitstellen einer graphischen nutzerschnittstelle in einem fahrzeug
WO2013034294A1 (de) Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug
DE102012018685B4 (de) System und Verfahren zur Steuerung von zumindest einem Fahrzeugsystem mittels von einem Fahrer durchgeführter Gesten
DE102013020795A1 (de) Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs
DE102014207637B4 (de) Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
DE102014226553A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
WO2017054894A1 (de) Interaktives bediensystem und verfahren zum durchführen einer bedienhandlung bei einem interaktiven bediensystem
DE102013000069B4 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
DE102015115362B4 (de) Erfassungsvorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug
DE102019206606B4 (de) Verfahren zur berührungslosen Interaktion mit einem Modul, Computerprogrammprodukt, Modul sowie Kraftfahrzeug
DE102014224898A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102013211046B4 (de) Verfahren und Vorrichtung zum Gewinnen eines Stellsignals aus einer Bediengeste
DE102013000081B4 (de) Bedienschnittstelle zum berührungslosen Auswählen einer Gerätefunktion
DE102016224235A1 (de) Verfahren und Vorrichtung zur Anpassung der Darstellung von Bild- und/oder Bedienelementen auf einer grafischen Benutzerschnittstelle
DE102015201722A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
WO2021028274A1 (de) Bediensystem und verfahren zum betreiben des bediensystems
EP3025214A1 (de) Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung

Legal Events

Date Code Title Description
DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13789710

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 13789710

Country of ref document: EP

Kind code of ref document: A1