[go: up one dir, main page]

WO2024068868A1 - Processing device, in particular headphones or hearing aid, for processing microphone signals into an audio data stream - Google Patents

Processing device, in particular headphones or hearing aid, for processing microphone signals into an audio data stream Download PDF

Info

Publication number
WO2024068868A1
WO2024068868A1 PCT/EP2023/076943 EP2023076943W WO2024068868A1 WO 2024068868 A1 WO2024068868 A1 WO 2024068868A1 EP 2023076943 W EP2023076943 W EP 2023076943W WO 2024068868 A1 WO2024068868 A1 WO 2024068868A1
Authority
WO
WIPO (PCT)
Prior art keywords
processing device
profile
signal processing
settings
designed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/EP2023/076943
Other languages
German (de)
French (fr)
Inventor
Michael Retter
David SCHWEIGHOFER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mic Audio Solutions GmbH
Original Assignee
Mic Audio Solutions GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mic Audio Solutions GmbH filed Critical Mic Audio Solutions GmbH
Priority to EP23785984.8A priority Critical patent/EP4595461A1/en
Publication of WO2024068868A1 publication Critical patent/WO2024068868A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/558Remote control, e.g. of amplification, frequency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/60Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles
    • H04R25/603Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles of mechanical or electronic switches or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/55Communication between hearing aids and external devices via a network for data exchange
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/61Aspects relating to mechanical or electronic switches or control elements, e.g. functioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Definitions

  • Processing device in particular headphones or hearing aid, for processing microphone signals into an audio data stream
  • the invention relates to processing devices, in particular headphones or hearing aids, for processing microphone signals into an audio data stream.
  • US 2009/0123013 A1 discloses a hearing aid device as a processing device.
  • the hearing aid includes a housing; a plurality of electrical components disposed within the housing; and an actuator that modifies a setting value of at least one of the electrical components, the actuator being a non-mechanical actuator.
  • the setting element distinguishes between several movement patterns of a detected finger or an object and modifies the associated setting values of the hearing aid device.
  • this hearing aid is extremely complicated because the user has to remember the associated movement pattern for each setting of the relevant setting value.
  • the hearing aid only provides a very limited range of functions that can actually be controlled with the help of its low-performance user interface, namely switching the hearing aid on or off and increasing or reducing the volume of the hearing aid.
  • the invention therefore has the object of providing a processing device with a more powerful user interface.
  • the subject matter of the invention is therefore a processing device, in particular headphones or hearing aid, wherein the processing device has a signal processing chain which is designed to process microphone signals according to values or settings of signal processing parameters of a profile into an audio data stream, wherein a first profile and a second profile are provided, and wherein the processing device is designed to change the values or settings of the signal processing parameters of the first profile to those values or settings of the signal processing parameters of the second profile or vice versa, taking interaction data into account, wherein the interaction data represents a user interaction recorded as a movement, such as a "swipe", “tap”, “hold” or combination thereof, in particular a movement known as "hold and swipe".
  • the invention therefore relates to a system, preferably a hearing aid system, particularly preferably a binaural hearing aid system, wherein the system has two processing devices according to the invention, wherein the first processing device is intended for the left ear and the second processing device for the right ear of a person.
  • the measures according to the invention have the advantage that, with a single movement, a large number of the settings of the signal processing parameters of the signal processing chain can be intervened at the same time, without the user actually having to know the individual settings, because these are stored in the respective profile or are summarized. It is therefore sufficient that the user of the processing device is aware of the two profiles that are intended for use via the user interface.
  • the processing device thus has an innovative user interface, in particular for a hearing aid.
  • the processing device is designed to receive and use the interaction data from an external interaction source by means of a radio connection.
  • This measure makes it possible for the interaction data to be generated using the external interaction source, such as a smartphone, a tablet computer or even a cloud-based software solution, and transmitted via a radio connection to one of the processing devices or to both processing devices in order to use it there for further processing to use processing.
  • the external interaction source such as a smartphone, a tablet computer or even a cloud-based software solution
  • the processing device has an input module with a planar interaction area, wherein the input module is designed to detect a movement, in particular a swiping movement, in the interaction area as a user interaction and to provide the interaction data representing this user interaction.
  • the areal interaction area can be provided by a touch-sensitive surface.
  • the processing device is designed to define at least two different menu areas in the area interaction area, with one of the two profiles being assigned to the respective menu area.
  • the input module can have a camera or be designed as a camera.
  • Such an input module can, for example, record a hand gesture as a user interaction.
  • the processing device can be designed to recognize objects, in particular the hand or its movement or the position or combination of the finger orientations, in captured image data using pattern recognition.
  • the input module is designed to allow user interactions within the auricle capture or capture in front of the auricle or capture along the front edge of the auricle, especially towards the upper edge.
  • the input module has at least one touchbar or is implemented as a touchbar.
  • a touch bar does not require a fixed actuator to be moved. Rather, a simple touch of the touch-sensitive surface of the touch bar is sufficient because the touch bar is designed to detect touch capacitively.
  • touch zones on the touch bar can be defined using hardware or software, or can be adjusted or changed during operation, creating virtual, individually definable buttons that are assigned functions of the processing device, e.g. switching between predefined profiles (for controlling microphone signal processing). This makes it possible to select profiles quickly and specifically, or to automatically adjust the selection of profiles (for a signal processing chain for processing microphone signals) depending on the situation.
  • the processing device is configured in such a way that the touch bar is positioned at the front edge of the auricle when worn on the head.
  • the touch bar does not have to be lifted as far and the fingers of the hand do not have to be bent as much as would be the case if the outer part of the touch bar were positioned along the back of the ear and could only be touched from behind. This is particularly important for older people, whose mobility is usually limited.
  • the processing device is designed to continuously or quasi-continuously change the values or settings, wherein the degree of change scales with the extent of the detected movement.
  • the processing device is designed to change the values or settings step by step or abruptly when a threshold value of the detected movement occurs.
  • the processing device is designed to change the values or settings even in the case that a profile has a mixture of continuously or quasi-continuously changeable values or settings and values or settings that can be changed step by step or only in jumps.
  • the signal processing according to the first profile is converted into signal processing according to the changed values or settings that are now present.
  • the values and settings can assume intermediate states between the limits of the values or settings defined by the two profiles. Only if the detected movement uses the entire available length/width/diagonal etc. of the areal interaction area or corresponds to a predefined movement range or shape switched one hundred percent from the first profile to the second profile. Otherwise, the intermediate states mentioned are used.
  • the processing device is designed to leave the relevant signal processing parameter unchanged for as long as
  • a threshold value such as 25%, 50% or 75%.
  • This measure can be used to prevent the relevant effect of the parameter, which is only available in the first profile, from starting too abruptly. You can also proceed analogously with a signal processing parameter of the second profile for which there is no corresponding parameter in the first profile.
  • the processing device is designed to implement the change in the signal processing parameters to be made in accordance with the detected movement in real time in the signal processing chain.
  • the processing device therefore allows - as already mentioned at the beginning - a "hold and swipe” functionality, which in technical jargon is referred to as a “swipe” functionality, which is advantageously used in the context of the system to mix profiles with each other.
  • the person first touches one of the profile zones 53 - 55, leaves the finger on it and then pulls the finger into the adjacent profile zone before the finger is lifted from the touch-sensitive element. This is interpreted by the software in such a way that the the profiles assigned to both profile zones swept by the fingers are to be mixed.
  • the degree of mixing (or in other words the mixing ratio) of the two profiles to be mixed can be adjusted by the width of the wiping movement (defacto between 0 and 100%).
  • the mixing ratio can be controlled by the width of the finger movement, meaning it can be dynamically adjusted in real time.
  • the user can dynamically switch back and forth between the two profiles or dynamically change the degree of mixing, for example, to find out which mixing ratio is best for him, as long as his finger is in contact with the touch-sensitive element but is moved there best fits or, for example, to consciously switch back and forth between two mixing ratios in order to temporarily optimize his acoustic perception according to the first profile or the second profile at short intervals. Only when he lifts his finger from the touch-sensitive element is this point in time set mixing ratio fixed.
  • the processing device is designed to fix the change in the signal processing parameters according to the detected movement only when the user interaction, such as a “swipe", “tap”, “hold” or combination thereof, in particular a movement known as “hold and swipe”, which in technical jargon is also referred to as a “swipe movement”, ends.
  • the processing device is designed to respond to a predefined user interaction, such as a particularly rapid swipe movement that differs from that with which the profiles are mixed, or a user interaction recorded as a “tap & hold”. Activate home profile.
  • a predefined user interaction such as a particularly rapid swipe movement that differs from that with which the profiles are mixed, or a user interaction recorded as a “tap & hold”.
  • the user i.e. the person wearing the system, always returns to the original position with a "swipe" gesture up or down, i.e. with a quick stroking movement of the finger across the two zones touching the touch-sensitive element. stable listening mode (the "Home" profile), regardless of whether this "swipe" gesture is performed on the first processing device or the second processing device.
  • the touchbar is freely assignable and can control practically all system parameters, i.e. the settings of the signal processing chain. This allows the user to intervene in their sound reality in real time. It can also be used to generate dynamic profiles, whereby the profiles placed on the touchbar are mixed with each other as discussed. This makes it easy to control complex DSP functions, for example, and the user has the feeling that he is interacting with the sound. The user's feeling that he would only change programs with a plastic button, which is often perceived as a disadvantage with known systems, is thus completely avoided.
  • the user can intervene deeply in the function of the signal processing chain even during operation.
  • a hearing test can be carried out and evaluated and deficits can be identified because the input module allows a wide variety of interactions.
  • the system equipped with the technical measures described can also enable an audio data stream generated from the microphone signals to be shared in real time with another external device. This can be done, for example, using a radio connection to the external device or a wired connection via the (magnetically holding) connection.
  • This functionality allows another person to experience the underlying audio experience of the person wearing the system live using the other device.
  • This functionality can also be used to analyze the audio experience, i.e. the audio data stream, on the other device in real time.
  • the system in particular the processing devices, can also each have a data storage device with the help of which the generated microphone signals in raw data format or also pre-processed can be continuously or limited to a time range of the occurrence of an audio event.
  • the settings or parameters that were used in the signal processing chain to create the audio data stream from the microphone signals are also saved. If the user of the system now has problems with audio perception, it can be determined by targeted, systematic adjustment or change of the settings or parameters which values for the setting or parameter improve the user's audio perception.
  • the stored data allows incremental and repetitive adjustment of the settings and parameters in particular in order to determine the appropriate parameters for one and the same audio experience.
  • the audio data streams corresponding to the respective audio experience can also be saved. This allows the user to narrow down the settings and parameters that are suitable for him by comparative listening (i.e. sequential playback of the audio data streams), which in turn gives the audiologist or a software-based audiological application the opportunity to find the optimized set of settings or parameters.
  • the two processing devices of the system can be set independently of each other with regard to the use of the profiles available there or the mix ratio of the profiles there, which allows the two processing devices to be operated as flexibly and independently of each other as possible.
  • this configuration with a touch bar assignment of two profiles per touch bar, a maximum of four profiles in total can be used, whereby two profiles per processing device can be smoothly converted into one another according to the movement in question.
  • This operating mode is referred to as "independent mode", whereby each of the two processing devices interprets the movement independently of the other and carries out the movement resulting values and settings of the signal processing parameters.
  • the two processing devices are designed for radio-based transmission of the interaction data from the first processing device to the second processing device or vice versa, and the processing device receiving the interaction data from the other processing device is designed to transmit the received interaction data analogously to that the processing device that sends out interaction data must be taken into account.
  • the system can be configured in an asynchronously linked mode such that there is a radio connection between the processing devices for sending their own interaction data to the other processing device and for receiving the interaction data from the other processing device.
  • Gestures executed synchronously on both processing devices i.e. to the left and right sides of the head
  • both processing devices can perform synchronous execution based on different inputs on both sides.
  • individual interactions on both sides carry out different functions that can be synchronized with the other processing device. For example, a user defines swiping up as increasing the volume on the left side, but swiping up on the right as muting the sound. If the user then swipes up on the right side, both devices will be muted while Swiping up on the left side increases the volume on both devices.
  • an asynchronously unlinked mode can be provided.
  • this mode too, there is the radio connection mentioned above in the asynchronously linked mode for exchanging the respective interaction data so that each side is informed about the respective user interaction.
  • this radio connection is not absolutely necessary.
  • the processing devices behave in such a way that changes are only carried out on that side of the head or by the processing devices positioned there, where the user interaction happens or takes place.
  • radio modules for radio communication can be used in the two processing devices.
  • This can be, for example, Near Field Communication, NFC for short, ZigBee, Wi-Fi, or a proprietary protocol can also be used.
  • the radio modules are designed according to the respective radio technology, whereby special software (driver software) that provides the respective protocol is used if necessary.
  • the radio connections are Bluetooth radio connections.
  • the radio modules are designed as Bluetooth radio modules.
  • Each of the processing devices has at least two microphones, which provide individual microphone signals that are exchanged between the two processing devices.
  • the microphone signals can be further processed according to “Dolby Atmos” technology or Aureal 3-Dimensional technology, or A3D technology for short, or the Auro 3D format.
  • each of the processing devices is designed to process the two groups of microphone signals according to the Ambisonics format.
  • Ambisonics format also allows for a simple and familiar use of the recorded microphone signals. For example, they can be recorded and saved as recording data. This recording data can then be further processed within the system or by other devices. For example, the recording data can be used by so-called "(e.g. video and/or audio) content creators" to use the recorded recording data in their own (proprietary) processing environment.
  • the Ambisonics format is used in the further system-internal processing chain to enable the use of one or more virtual microphones, so that with the help of the system, the directivity of the respective virtual microphone is tailored to individual users in a purely software-based manner, i.e. without any additional external aids Sound sources (e.g. devices, vehicles or people) can be focused in the sound detection area.
  • Sound sources e.g. devices, vehicles or people
  • the basic configuration mentioned above consisting of the two microphones per processing device, already forms the basis for audio signal processing in accordance with the generally known Ambisonics format in the first order. It may be necessary to transform the microphone signals from one coordinate system to another in order to make the preferred arrangement and/or orientation of the microphones accessible for use in the Ambisonics format in accordance with the convention. If there are more microphones than in the basic configuration, and if there are corresponding orientations or directional characteristics, higher orders of the Ambisonics format can also be processed. It should be noted that even when using other formats, the use of multiple microphones allows a description of a higher order of the spherical harmonics.
  • the fully automatic or user-interaction-based three-dimensional interpretation of the microphone signals makes it possible to identify a specific sound source and the direction of the sound source in relation to the respective orientation of the processing device.
  • the sounds from this sound source can now be amplified or muted for the person depending on the specification or properties of the sounds.
  • Beamforming is generally understood to mean the orienting of a directional characteristic (of a virtual microphone known in the context of Ambisonics), if necessary modeling the directivity (of this virtual microphone).
  • the change in the position of the sound source relative to the system or its orientation which in the case of a hearing aid results from the orientation of the head, must be taken into account in order to continue to focus on the previously focused sound source stay and amplify or block out their sound.
  • the aforementioned “beamforming” can also be used with a virtual microphone for this - possibly automated - process. In this way, the sound field can be permanently scanned and the position of the “traveling” sound source can be tracked.
  • ESLs electronic devices
  • smartphones smartphones, tablet computers, video shelf rails, etc.
  • the electronics can be constructed discretely or through integrated electronics or a combination of both.
  • ASICs application specific integrated circuits
  • Many of the mentioned functionalities of the devices are implemented - possibly in conjunction with hardware components - with the help of software that is executed on an electronics processor.
  • Devices designed for radio communication usually have an antenna configuration for sending and receiving radio signals as part of a transceiver module.
  • the electronic devices can also have an internal electrical power supply, for example can be realized with a replaceable or rechargeable battery.
  • the devices can also be powered by wires, either through an external power supply or via “Power over LAN”.
  • FIG. 1 shows a head of a person with a binaural hearing aid system with a processing device on each ear of the head;
  • Fig. 2 direction information for the binaural hearing aid system in the horizontal plane relative to the head
  • Fig. 3 Directional characteristics of the microphones used in the binaural hearing aid system
  • Fig. 4 is a block diagram of a binaural hearing aid system
  • Fig. 5 shows a signal processing chain used in the processing devices
  • FIG. 6 structural details of the processing devices in an exploded view
  • FIG. 7 shows the processing device with electronic components or assemblies accommodated in its housing and additional expansion modules that can be connected to it;
  • Fig. 8 shows a dynamic interface of the processing devices realized with the help of two touch bars
  • Fig. 9 shows a typical wearing position of the processing device on the right ear with a user interaction by a finger on a surface interaction area of the processing device
  • Fig. 10 shows user interaction in a zoom view
  • Fig. 11 the areal interaction area with profiles assigned to its end areas for controlling the signal processing chain
  • Fig. 12 a movement of the finger along the areal interaction area and the resulting change of the values and settings for the signal processing chain;
  • FIG. 13 shows a reverse movement compared to FIG. 12 and the associated change in the values or settings for the signal processing chain
  • Fig. 15 to 20 a user interface of a smartphone application for configuring various settings of the processing device(s);
  • Fig. 21 shows a further embodiment of the areal interaction area
  • Fig. 22 shows a first two-finger user interaction and its effect
  • Fig. 23 a second two-finger user interaction and its effect
  • Fig. 24 a visualization of the mixing of two profiles for audio signal processing
  • Fig. 25 an influence of a finger position on a touch bar on the profile mixture
  • Fig. 26 shows an effect of the mix based on two profiles, each with three audio effects
  • Fig. 27 an exemplary parameter collection of a profile
  • Fig. 28 shows an individualization of a profile using a smartphone.
  • system 1 shows a head 101 of a person 100 who is wearing a binaural hearing aid system 1, hereinafter referred to as system 1, which has a first processing device 2 worn on the left ear 102 and a second processing device 3 worn on the right ear 103 to enable the person 100 to have an improved, in particular natural, hearing experience with both ears 102, 103.
  • the designations front V, back H, left L, and right R correspond to the natural direction information in relation to the head 101 of the (standing or sitting) person 100, so that the face faces forward V, the left ear 102 faces left L and that right ear 103 is aligned to right R.
  • Processing devices 2 and 3 also indicate a radio connection, which will be discussed in detail below.
  • Figure 2 shows the four directions V, H, R and L based on the head 101 of the person 100, which is viewed from above, with the face of the person 100 looking forward V, which corresponds to the degree 90°.
  • the degree is given in the horizontal plane, which is positioned essentially at the level of the ears 102, 103.
  • the head 101 is indicated on the circumference and marked with a cross 200, the longest section of the cross 201 being oriented from the center of the head 101 towards the nose. This is mentioned at this point because this type of representation is also used in the following figures.
  • Each of the processing devices 2 and 3 shown in Figure 1 has two microphones 10 and 11 or 12 and 13 (not shown, but see e.g. Figures 3 and 4), so that sound can be recorded in all four directions V, H, L and R, as shown in Figure 2.
  • the main recording directions of the four microphones 10-13 shown in Figure 2 are indicated here by the direction information "left-front” LV, "right-front” RV, "left-back” LH and "right-back” RH.
  • the two processing devices 2 and 3 are discussed below using a block diagram.
  • the two processing devices 2 and 3 are battery-operated and therefore have each have a rechargeable battery 25 which provides a supply voltage VCC relative to a reference potential GND.
  • the first processing device 2 has a first processing stage 4.
  • the processing stage 4 is connected to a first Bluetooth radio module 6, in short first radio module 6, and a fourth Bluetooth radio module 9, in short fourth radio module 9, via a UART connection 17 for setting or programming the radio modules 6 and 9, respectively, and via an I 2 S connection 18 for the separate transmission of audio data.
  • the first radio module 6 is connected by wire (in this exemplary embodiment via its analog microphone signal inputs) to a first microphone 10 and a second microphone 11.
  • An individual microphone signal MSI or MS2 is generated with the first microphone 10 and the second microphone 11.
  • the two microphone signals MSI and MS2 together form a first group Gl of microphone signals.
  • the microphone signals MSI and MS2 arriving at the first radio module 6 are digitized for further processing using the first radio module 6.
  • the second processing device 3 has a second processing stage 5.
  • the second processing stage 5 is with a third Bluetooth radio module 8, short third radio module 8, and a second Bluetooth radio module 7, short second radio module 7, each via a UART connection 17 for setting or programming the radio modules 6 and 9 and each connected via an I 2 S connection 18 for the separate transmission of audio data.
  • the third radio module 8 is connected via a cable (in this embodiment via its analog microphone signal inputs) to a third microphone 12 and a fourth microphone 13.
  • the third microphone 12 and the fourth microphone 13 each generate an individual microphone signal MS3 or MS4.
  • the two microphone signals MS3 and MS4 together form a second group G2 of microphone signals.
  • the microphone signals MS3 and MS4 arriving at the third radio module 8 are digitized for further processing using the third radio module 8.
  • the respective group Gl or G2 of the microphone signals can also be fed to the radio modules 6 or 7 as a digitized audio data stream if appropriately designed microphones are used which support such a creation of the audio data stream.
  • Each of the radio modules 6 to 9 has an antenna configuration 14 and the usual transceiver electronics (not shown in detail) for Bluetooth radio communication.
  • a first radio connection 15 is established between the first radio module 6 and the second radio module 7 and the first group G1 of the microphone signals is transmitted from the first radio module 6 to the second radio module 7.
  • the first radio module 6 is used exclusively as a transmitter and the second radio module 7 is used exclusively as a receiver.
  • a second radio connection 16 is also established between the third radio module 8 and the fourth radio module 9, and the second group G2 of microphone signals is transmitted from the third radio module 8 to the fourth radio module 9.
  • the third radio module 8 is used exclusively as a transmitter and the fourth radio module 9 is used exclusively as a receiver.
  • audio data representing the first group Gl of the microphone signals are transmitted from the first radio module 6 and audio data representing the second group G2 of the microphone signals are transmitted from the fourth radio module 9, each via the separate I 2 S connections 18, to the first processing stage 4.
  • audio data representing the first group Gl of the microphone signals are transmitted from the second radio module 7 and audio data representing the second group G2 of the microphone signals are transmitted from the third radio module 8, each via the separate I 2 S connections 18, to the second processing stage 5.
  • both the first processing device 2 and the second processing device 3 have both groups Gl and G2 of the microphone signals, i.e.
  • all microphone signals MSI to MS4 available for further Signal processing is available, whereby the individual, unidirectional transmission via two separate radio links 15 and 16 - as discussed in the general part of the description - forms the basis for the further phase-synchronous signal processing of all microphone signals MSI to MS4 in each of the processing devices 2 and 3 in real time.
  • the four radio modules 6 to 9 are each implemented by a component from “MICROCHIP” called “BM83 Bluetooth® Stereo Audio Module”.
  • the two processing stages 4 and 5 are implemented in this exemplary embodiment by a component from “NXP Semiconductors” called “i.MX RT1160”.
  • i.MX RT1160 a component from “NXP Semiconductors”
  • Each of the processing devices 2 and 3 has a gyroscope 21a and 21b, respectively, with which position data LD are generated, which represent the position or the change in the position of the respective processing devices 2 and 3, respectively.
  • Each of the processing stages 4 and 5 is connected to the respective gyroscope 21a and 21b and takes the respective position data LD into account during the further processing of the two groups G1 and G2 of the microphone signals, so that position changes can be compensated for in this further processing.
  • Each of the processing devices 2 and 3 further comprises a touch-sensitive input module 20, which is divided into a first input module controller 19a (implemented with the aid of a microcontroller) and a first so-called “touch strip” 20a connected to it, and a second input module controller 19b (also implemented with the aid of a microcontroller) and a second touch strip 20b connected to it.
  • the two touch strips 20a and 20b form external features of two touch bars, each of which has a touch-sensitive surface.
  • the input module 20 can define freely assignable zones on the touch strips 20a and 20b and thus divide the area available there into menu items, for example into an upper and lower half, so that the functions assigned to the menu items can be triggered by touching with a finger.
  • the assignment of the menu items to the zones can be predefined, changed or adapted depending on the operating state, or configured via an external app.
  • the respective processing levels 4 and 5 are connected to the respective input module 20.
  • the input module 20 is designed to capacitively detect the position of a finger of the person 100 on the respective touch strip 20a or 20b and to interpret it using the respective touch module controller 19a or 19b and to generate interaction data ID and to provide it for the respective processing levels 4 or 5, where this interaction data ID is processed according to the currently valid menu assignment of the respective touch strip 20a and 20b.
  • areas can be defined on the touch strip 20a and 20b that are used to directly activate profiles, or areas can be defined that are used to control the volume, or areas can be defined that are used to align a virtual microphone, etc.
  • the interaction data ID can also be generated by means of an external interaction source, such as a smartphone, a tablet computer or a cloud-based software solution, and transmitted via a radio connection to one of the processing devices 2 or 3 or to both processing devices 2 and 3 in order to use them there for further processing.
  • the interaction data ID as well as the position data LD can be transmitted together with the microphone signals MSI and MS2 or MS3 and MS4 via the corresponding radio connections 15 and 16 to the other processing device 2 or 3, so that both processing devices 2 and 3 are synchronous with one another can be operated or simply keep each other informed about the respective interaction or situation.
  • the two processing devices 2 and 3 each have a visual signaling stage 26, which is essentially formed by an LED that is controlled by the respective radio module 6 or 8 to which it is connected.
  • the visual signaling stage 26 serves, for example, to display a transmission activity or to display a charge status of the battery 25 of the respective processing device 2 or 3.
  • each of the processing devices 2 and 3 has an output module 22, which is divided into an amplifier 22a or 22b and a loudspeaker 23a or 23b coupled thereto.
  • the amplifiers 22a, 22b are an I2C Class D amplifier which is connected to the respective processing stage 4 or 5 via an I 2 C connection and is designed to be supplied with digital audio data from there and from this to generate a correspondingly amplified output audio signal with which the loudspeaker 22a or 22b is controlled.
  • each of the processing devices 2 and 3 has a removable storage medium read/write stage 24, with the aid of which a removable storage medium can be written with data or data can be read from the removable storage medium.
  • This can be setting data, user data, audio data or even application data, etc., which are made accessible to the system or the respective processing device 2 or 3 or are retrieved from there.
  • This can also provide a memory extension for processing activities that require a lot of computing or data. This also allows executable applications to be made available in the system 1 in a physical way, possibly even encrypted.
  • the reference numerals 27 to 29 are not used.
  • the two groups Gl and G2 of the microphone signals MSI - MS4 are fed into a first signal processing stage 31 on the input side.
  • the first signal processing stage 31 all functions for ambisonics-related signal processing are combined, taking into account the position data LD and/or the interaction data ID that relate to the ambisonics-related signal processing.
  • an audio data stream structured according to the Ambisonics format is generated, the position data LD of the gyroscope 21a or 21b is taken into account, one or more virtual microphones are defined or controlled, etc.
  • the first signal processing stage 31 generates from the four microphone signals MS1-MS4 a first audio data stream ADI, which is fed into a second signal processing stage 32.
  • the second signal processing stage 32 all functions for hearing curve adaptation-related signal processing are summarized, including or taking into account the interaction data ID, which relate to the hearing curve adaptation.
  • a hearing curve adjustment works by correcting the hearing curve of an impaired ear to approximate that of a healthy ear. This essentially uses a static equalizer. With this functionality, the second signal processing stage 32 generates a second audio data stream AD2 from the first audio data stream ADI, which is fed into a third signal processing stage 33.
  • the third signal processing stage 32 all functions for hearing profile-related signal processing are summarized, including or taking into account the interaction data ID, which relate to the hearing profile settings.
  • a hearing profile includes those audio signal processing parameters that are tailored to the ear or person in question and which improve or positively influence the intelligibility of speech, participation in a group discussion, listening to music, etc. If the respective hearing profile is activated, i.e. used in the signal processing chain, the intelligibility of individual speech is improved, participation in a group discussion is made easier, the natural perceptibility of music is promoted, etc.
  • the third signal processing stage generates 32 from the second audio data stream AD2 a third audio data stream AD3, which is fed into a fourth signal processing stage 34.
  • the fourth signal processing stage 34 all functions for hearing aid function-related signal processing are summarized, including or taking into account the interaction data ID, which relate to the hearing aid function settings.
  • This can be, for example, "Quality-Of-Life Improvements" such as additional noise filtering, echo/reverb filtering, etc.
  • Plugins can also be integrated here that can be defined/downloaded by yourself.
  • the fourth signal processing stage generates this functionality 32 from the third audio data stream AD3 a fourth audio data stream AD4, which is delivered to the ear 102, 103 of the person 35 wearing the system 1 by means of the aforementioned output module 22.
  • signal processing stages 31 to 34 shown as structural blocks can essentially be based on software modules, although of course hardware optioned for the respective function, possibly programmable in combination with software, can also be used .
  • the structure of the physical structure of the processing device 2 or 3 is discussed below with the help of Figure 6.
  • the two processing devices 2 and 3 are structured as follows.
  • loudspeaker capsule 36 which is designed for use in the external auditory canal and accommodates the loudspeaker 23a or 23b in a housing.
  • first flexibly deformable connecting element 37 which is essentially formed from a body consisting of deformable plastic, in particular polyurethane plastic or silicone.
  • first housing 38 which shows a first touch-sensitive part 39 of the first touch strip 20a, so that the touch-sensitive part 39 is oriented laterally or forwards or oriented obliquely forwards as unhindered as possible when the processing device 2 or 3 is worn on the head the ear cup is accessible or touchable on the first housing part.
  • a second flexibly deformable connecting element 40 which is essentially formed from a body consisting of deformable plastic, in particular polyurethane plastic or silicone.
  • a rigid second housing 41 which, on the one hand, is shaped to fit the shape of the outer ear from its front to its rear area in order to be accommodated between the ear and the skull, and which, on the other hand, is designed to be large enough to accommodate the loudspeaker 23a or 23b and the first touch-sensitive part 39 of the touch strips 20a.
  • remaining electronic components of the processing device 2 or 3. These electronic components are connected by cable to the first touch-sensitive part 39 of the touch strips 20a and the loudspeaker 23a or 23b, which is not shown for reasons of clarity.
  • the second housing part 41 therefore contains a processing module of the corresponding processing device 2 or 3.
  • the processing module has the respective processing stage 4 or 5, the two radio modules 6 and 9 or 8 and 7, two microphones 10 and 11 or 12 and 13, the respective gyroscope 21a or 21b and the respective visual signaling stage (not shown here).
  • Externally visible on the second housing 41 are a second touch-sensitive part 42 of the second touch strip 20b, the second touch-sensitive part 42 being used primarily for volume adjustment, and a magnetically held connection 43 or its contact field, which shows six contact elements.
  • the first microphone 10 or its sound inlet opening(s) is present on the second housing 41 at its front end, although this is not visible in the selected perspective of Figure 6. Furthermore, the second microphone 11 or its sound inlet opening(s) is visible on the second housing 41 of the first processing device 2.
  • the third microphone 12 or its sound inlet opening(s) is present on the second housing 41 at its front end, which, however, is not visible in the selected perspective of FIG. Furthermore, the fourth microphone 13 or its sound inlet opening(s) is visible on the second housing 41 of the first processing device 2.
  • FIG. 7 will be discussed further, in which the processing device 2 or 3 is shown assembled in contrast to Figure 6.
  • the areas of the rigid second housing part 41 are shown here as transparent or cut free in some areas in order to reveal the assemblies or electronic components arranged therein.
  • the integrated circuits mentioned are in an upper area 44A
  • Analog electronic components are arranged for the radio modules 6 and 9 or 8 and 7, for the input module 20 and for the processing stages 4 and 5.
  • a rear area 44B there is an electrical supply, which in the present case is implemented with two rechargeable button cell-like batteries 25, and a haptic module 45, not yet shown, which can be controlled with the aid of the respective processing stage 4 or 5.
  • an optional expansion module 51 connected to the magnetically holding connection 43 is shown in FIG.
  • these can be the following types of modules: a battery charging module 46, a microphone cube (not shown), a jack plug adapter 47, a USB adapter 48, a radio device 49 that can be logically linked to the system 1, with its help Audio or settings data from another device, to which the radio device 49 is then connected, for example via a USB port, can be transmitted via radio to the system 1 or vice versa, a microphone extension 50, etc.
  • the rechargeable batteries 25 can thus be charged using the battery charging module.
  • a docking station can also be provided, into which the two processing devices 2 and 3 can be coupled using the connection 43, so that the batteries 25 can be charged in the docking station.
  • the system 1 can be designed to process Ambisonics according to a higher order than that provided by the microphones 1 to 13 permanently installed in the system 1 (in the present case, this is the first order). This circumstance allows further microphones to be connected to the connection 43 and thus to use the higher order, without any change to the basic design of the system 1 being necessary.
  • the user interface integrated in the system 1 with an exemplary menu assignment of the first touch-sensitive part 39 of the touch bar 20 for both of the processing devices 2 and 3 and the functions of the system 1 that can be controlled with it are discussed.
  • the menu assignment is defined such that in the second processing device 3 the upper half of the first touch-sensitive part 39 defines a first profile zone 53 for selecting a first profile for the signal processing chain 30 and the lower half of the first touch-sensitive part 39 defines a third profile zone 55 for selecting a third profile for the signal processing chain 30.
  • the menu assignment is defined such that in the first processing device 2 the upper half of the first touch-sensitive part 39 defines a second profile zone 54 for selecting a second profile for the signal processing chain 30 and the lower half of the first touch-sensitive part 39 also defines the third profile zone 55 Selection of the third profile for the signal processing chain 30 is defined.
  • the three profiles for the signal processing chain 30 summarize the respective signal processing settings or signal processing parameters that are to be used in the signal processing chain 30 depending on the activated menu.
  • Touching one of the profile zones 53 - 55 (upper or lower half) of the relevant touch-sensitive part 39 selects the respective associated profile in order to use it in the signal processing of the microphone signals MSI - MS4. This takes place in real time, while the person 100 is wearing the system 1 and the signal processing chain 30 is being run through.
  • the profile transition between the currently active profile and the profile selected by touching the respective zone is preferably smooth, which is also referred to as "fading" and is planned to take a certain amount of time, for example one to three seconds, preferably around 2 seconds, so that a smooth transition to the selected profile and therefore to be used is created. Abrupt signal processing changes, which could sometimes be interpreted as disruptive or a malfunction, are thus reliably avoided.
  • the software of system 1, i.e. of each processing device 2 or 3 also allows a "hold and swipe” functionality, which is referred to in technical jargon as a “swipe” functionality, which is advantageously used in the context of system 1 to mix profiles with one another.
  • the person first touches one of the profile zones 53 - 55, leaves the finger on it and then drags the finger into the adjacent profile zone before the finger is lifted from the touch-sensitive element. This is interpreted by the software in such a way that the profiles assigned to the two profile zones swept by the fingers are to be mixed.
  • the signal processing settings applicable to the signal processing chain 30 according to the first profile are mixed with those of the third profile. If the same is done on the left, first processing device 2, the signal processing settings of the second profile are mixed with those of the third profile.
  • the degree of mixing (or in other words the mixing ratio) of the two profiles to be mixed can be adjusted by the width of the swiping movement (defacto between 0 and 100%).
  • the first profile of the signal processing chain 30 was designed for natural hearing (home setting) and the third profile of the signal processing chain 30 was programmed as an autofocus on speech signals, so that the beamformer in the first signal processing stage 31 always selects a speech vector and the DSP (DSP stands for "digital signal processor") of the third signal processing stage 33 is set to speech. If you now touch the first profile zone 53, hold it and then swipe downwards, the stable "home" profile approaches the uncompromising speech autofocus.
  • the mixing ratio can advantageously be controlled by the width of the finger movement, i.e. dynamically adjusted in real time. As a result, an audio signal optimized for normal hearing is mixed with an audio signal optioned for speech according to the selected mixing ratio.
  • the user can also dynamically switch back and forth between the two profiles or dynamically change the mixing level as long as his finger is resting on the touch-sensitive element but is being moved there, for example to find out which mixing ratio suits him best or to consciously switch back and forth between two mixing ratios in order to temporarily optimize his acoustic perception according to the first profile or the second profile at short intervals. Only when he lifts his finger from the touch-sensitive element is the mixing ratio set at that time fixed. Furthermore, the user, i.e. the person 100 wearing the system 1, always returns to the original, stable listening mode (the "home” profile) with a "swipe” gesture up or down, i.e. with a quick swipe of the finger across the two zones touching the touch-sensitive element, regardless of whether this "swipe” gesture is carried out on the first processing device 2 or the second processing device 3.
  • the entire system 1 can be controlled in a touchable way.
  • the touch bar 20 is freely assignable and can control practically all system parameters, i.e. the settings of the signal processing chain 30. This allows the user to intervene in their sound reality in real time.
  • dynamic profiles can also be generated with it, whereby the profiles placed on the touch bar 20 are mixed with each other as discussed. This makes it easy to control complex DSP functions, for example, and gives the user the feeling that they are interacting with the sound. The feeling of the user, often perceived as a disadvantage with known systems, that they are only changing programs with a plastic button, is thus completely avoided.
  • the user interface can adapt dynamically to the user, e.g. as a result of an interaction that has just been carried out or due to external circumstances that were determined, for example, through the evaluation of the incoming sound.
  • the user interface can also change its state briefly and, for example, provide the function of a call acceptance button when a call is received via a smartphone, which is communicated to System 1 via a Bluetooth connection with the smartphone, for example.
  • the short-term change can also be caused by the evaluation of the incoming sound if this appears necessary based on the evaluation.
  • a zone (eg the upper half) of the touch strip 20a or 20b can be assigned to the "Speech Autofocus" function. Tapping in the upper area of the touch strip 20a or 20b assigned to this menu item then executes a special plug-in (i.e. a software component) in processing stages 4 and 5, with the help of which the sound field is searched for speakers and one or more virtual microphones are aimed at these sound sources or spatial areas or directional areas in which the sound sources were identified.
  • a special plug-in i.e. a software component
  • a "just listen” function can be activated via the touch bar 20.
  • This can be a completely stable hearing program that is, however, adapted to the hearing curve of the user of System 1 and is therefore suitable for or leads to a natural hearing sensation.
  • This function would consist of a mix of omnidirectional and/or, for example, cardioid directionally recorded audio signals (vector to the front, front of user).
  • the mix of the individual microphone signals MSI - MS4 is determined, which is determined by binaural (localization) hearing tests.
  • the frequency response results from a binaural (frequency) hearing test.
  • the polar pattern i.e. the directional characteristic used, is generated by the mix of several virtual microphones. This applies to all programs of this System 1.
  • the only difference here is that the mix is absolutely static.
  • the fact that the mix is stable means that no automatic mechanisms intervene during operation.
  • the localization ability is restored by binaural mixdown, which is known in the context of Ambisonics.
  • This "just listen” profile also forms the basis of all other profiles, with the difference that other profiles can create and freely mix freely definable virtual microphones of any type and number (limited to the order of the microphone array 10 - 13; in the present embodiment it is First Order Ambisonics).
  • An example of this is a "noise cancelling" function that can be called up on the touch strip 20a or 20b, which has a dynamic behavior.
  • the "noise cancellation” profile is active, the environment is continuously analyzed and noise in the sound field is selectively removed fully automatically. This function searches for and suppresses permanent (interference) noise, while at the same time music, ambient noise to be observed and speech remain consistently perceptible for the user.
  • the Signal processing chain 30 therefore adapts dynamically to the spatial and temporal dynamics of the noise.
  • the haptic module 45 which can also be referred to as a feedback module, gives the user, i.e. the person who wears or uses the system 1, feedback under a wide variety of operating conditions, for example when the touch bar 20 or the respective touch strips 20 a or 20b were touched or the system 1 wants to communicate something during normal operation.
  • This feedback module serves to enable uninterrupted “notifications”, i.e. messages, to the user.
  • the sound image, which is generated for the user by the system 1, is never disturbed by the tactile feedback when the volume or program changes, etc , because this provides feedback without acoustic interruption or acoustic overlay.
  • a first area, such as a head area 90, of the second touchbar 20b has a first profile PI and a second area, such as a foot area 91, of the first touchbar 20a has a second one Profile P2 is assigned.
  • the data structure DS of the profiles PI and P2 is constructed identically in order to easily enable the "mixing" of the values or settings of the two profiles as a result of user interaction.
  • This data structure DS is visualized by a first matrix M1 and a second matrix M2 with “boxes” that represent data elements, with each box of the first profile PI being assigned exactly one box of the second profile P2.
  • the columns here contain the ones for the respective one
  • the signal processing parameters used in signal processing stages 31 to 34 come together, with a line entry for storing the relevant value or the relevant setting of a signal processing parameter being provided for each signal processing parameter.
  • Those boxes that are filled with the number “1” indicate that it is these are the values or settings for the respective signal processing parameters according to the first profile PI.
  • Those boxes filled with the number “3” indicate that they are the values or settings for the signal processing parameters according to the second profile P2.
  • FIG. 12 shows, with three images along the time axis t, a temporal sequence of movements during the condition of the user interface, whereby the finger 104 is first placed in the head area 90 and is subsequently moved to the foot area 91, while the finger remains in contact with the touchstrip 20b.
  • the finger 104 is in an intermediate position between the head area 90 and the foot area 91, as shown in the middle figure. Only when the foot area 91 is reached is the finger 104 lifted off the touch strip 20b. This sequence of finger movement - i.e.
  • the interaction data ID describes the detected movement of the finger 104 as a "hold and swipe” movement and also provides the respective position of the finger 104 along the touch strip 20b in real time as long as the finger is held on the touch strip 20b.
  • the second processing stage 5 in real time the values or settings of the signal processing parameters of the first profile 1 - scaled according to the respective position of the finger 104 between the two outermost ends of the first touch strip 20a - to the values or settings of the signal processing parameters of the second profile P2
  • the fundamentally dynamic process is visualized in a snapshot for the intermediate position by a third matrix M3, the boxes of which contain the number "2", which indicates that it is an intermediate profile P3 generated dynamically in real time, which is used in real time in the signal processing chain 30 is applied.
  • the values and settings of the respective signal processing parameter of the intermediate profile P3 result from a (for example linear) interpolation, which is dependent on the position of the finger 104, between the value or the setting of the signal processing parameter of the first profile PI and the value or the setting of the latter corresponding signal processing parameter of the second profile P2.
  • This interpolation is performed for each signal processing parameter.
  • the listening experience that is conveyed by the intermediate profile P3 therefore represents a mixture of the respective listening experience conveyed by the first profile 1 and the second profile P2, the mixing ratio being given by the finger position. So the position of finger 104 essentially affects everyone Signal processing parameters, unless they are intended to be constant or are not listed as identical in the two profiles PI and PI.
  • Figure 13 shows the reverse process, i.e. that the starting point of the "hold and swipe" movement is the foot area 91, to which the second profile P2 is assigned, and that the movement runs via an intermediate position, where a dynamically generated intermediate profile P3 is created and applied, to the head area 90, to which the first profile PI is assigned.
  • the finger 104 can also remain on the touch strip 20b for a longer period of time while it is moved up and down, i.e. a back and forth "swipe" movement is carried out in order to continuously generate an intermediate profile P3 corresponding to the respective finger position.
  • the person 100 can use this process as a type of fine adjustment of the intermediate profile P3 in order to find the ideal setting of the signal processing parameters of the intermediate profile P3 for the listening experience.
  • the interaction is ended, i.e.
  • the processing stage 3 ends the interpolation of the values or settings of the signal processing parameters between the first profile PI and the second profile P2 for the intermediate profile P3 and the intermediate profile P3 present at this time is retained from then on for the signal processing chain until the next "hold and swipe" movement is detected or the person directly taps the head area 90 or the foot area 91 to select the profile Pl assigned there. or P2 is activated immediately.
  • the dynamic, real-time creation of the intermediate profile P3 please refer to Figure 14. It shows the first profile PI, the second profile P2 and the third profile P3 in a meta-description of its signal processing parameters.
  • the meta description characterizes here in an exemplary manner: noise suppression 93; an orientation 94 of the virtual microphones, i.e. an ambisonic focus; a gain or volume 95; a compressor ratio 96; a bandpass frequency range 97.
  • the first profile PI is optimized for the pure perception of speech that comes from a direction corresponding to the direction in which the person is looking.
  • the second profile P2 is optimized for general all-round hearing or in other words “everything hearing”.
  • the intermediate profile P3 which results from detecting a "hold and wipe” movement of the finger of the person 100 when the finger 104 is positioned exactly in the middle between the head area 91 and the foot area 92, forms an interpolated one in real time Compromise for the listening experience of the person 100 between the two listening experience extremes of the predefined profiles PI and P2.
  • a configuration application is discussed which is executed on a mobile phone 98, wherein the mobile phone 98 is in (radio) connection with at least one of the processing devices 2 or 3 in order to transmit the settings made by the person 100 to the latter.
  • the application shows one of the two touch stripes 20a or 20b and a list of profiles Pn, Pm, Po, ... that can be assigned to the head area 90 or the foot area 91.
  • the profile Pn was assigned to the head area 90 by manual selection and the profile Pm was assigned to the foot area.
  • the person can select 100 different movements or gestures from a list and associate these movements or gestures with profiles for both the left and right processing devices 2 and 3, respectively.
  • This allows actions to be triggered in relation to the applications of individual profiles without having to do the aforementioned interpolation between two profiles.
  • the gestures listed here are, for example, touch & hold (marked as "T&H") or, in plain text, "TAP” and “SWIPE” upwards, where the direction of the swipe is indicated by an upward arrow.
  • Figure 17 shows movements or gestures that must be performed essentially simultaneously on both touch strips 20a and 20b in order to activate the profile Pn - Pp shown next to it.
  • the symbols shown are to be understood as follows.
  • An arrow pointing upwards as well as an arrow pointing downwards represents a swiping movement, where the direction of the swipe is indicated by the respective arrow direction.
  • a closed ring represents a single short-term touch (one tap).
  • a dotted ring represents a double short-term touch (double tap).
  • Figure 18 also shows setting options that affect the function and operation of the touch strips 20a and 20b.
  • the two touch strips 20a and 20b can be operated in a coupled or uncoupled (individual) state.
  • the sensitivity can also be adjusted. It can also be specified that haptic feedback should be provided, etc.
  • Figure 19 shows settings of how the detected movement or gesture Eq. G7 can be used to (media) control an external device, such as a smartphone. You can use movements or gestures to accept calls, mute calls, increase or decrease the volume of the external device or mute the device.
  • the playback of songs, messages or other multimedia sources can also be controlled, such as starting playback, pausing playback, stopping playback or even basic control of an external device - in this case a PC - etc.
  • Figure 20 shows an interface for learning movements or gestures, so that the person can define 100 self-developed movements or gestures or can also adapt the characteristics of given movements or gestures to their own needs or circumstances.
  • the movement or gestures learned by the application can then be associated with the respective profile (here e.g. bottom).
  • the areal interaction area of the input module 20 is discussed below.
  • the areal interaction area can, for example, be designed as a continuous area between the head area 90 and the foot area 91.
  • the area of interaction can also be structured.
  • Such a structured, area-wide interaction area is shown, for example, in FIG. 21.
  • the touch strip 20a or 20b has three separate touch-sensitive detection zones, namely a first detection zone 110, a second detection zone 111 and a third Detection zone 112, with which a touch or a movement can be actively detected electronically, in particular capacitively.
  • Each of the detection zones 110 - 112 of the relevant touch strip 20a or 20b is connected to an input module controller (each with a separate or all with a common input module controller) so that touches and movements that occur in one of the detection zones Zones 110 -
  • the detection zones 110 - 112 can be directly adjacent to each other or connected to passive zones
  • the passive zones 113 and 114 must be separated from each other.
  • the passive zones 113 and 114 do not allow direct detection of a touch or movement and only serve as a distance between the detection zones 110 - 112.
  • the passive zones 113 - 114 can be straight, curved or - as shown in Figure 21 - wedge-shaped be trained.
  • menu areas or menu items can be assigned to the respective detection zone in a physically separate manner.
  • a first profile can be assigned to the head area 90 (here the first detection zone 110) and a second profile to the foot area 91 (here the third detection zone 112).
  • Interpolation can be carried out between the profile settings (values or settings of the signal processing parameters) of the two profiles when a hold and swipe movement is present, as discussed, in order to generate the dynamic intermediate profile.
  • the middle detection zone 111 can be placed as a predefined third profile between the other two profiles, i.e. the first and the second profile. This means that intermediate profiles can now be created dynamically along the touch strip 20a or 20b, namely one between the listening experience extremes of the first profile and the third profile as well as one between the listening experience extremes of the third profile and the second profile.
  • the middle detection zone 111 can also be used only to quickly activate another profile or even just a single function, whereas the intermediate profile can only be set between the first and the second profile.
  • the dynamic transfer - in other words a smooth change - of the settings of one profile to the settings of another profile can be carried out by user interaction, generating the dynamic intermediate profile. This can be used by the person 100 when they switch between different environments and consciously perform the hold and swipe movement.
  • the processing device 2 or 3 uses machine learning algorithms to make settings for the processing devices and to assign the profiles available there to the touch strips 20a or 20b. These automatisms can run on the basis of real-time recordings of signals or physical parameters using sensors and/or the microphones of the processing devices 2 or 3. It can also be provided that automatic interpolation takes place between these automatically assigned profiles. For this purpose, for example, previously recorded and evaluated user behavior can be used, which was taken into account in the machine learning.
  • the concept of the flowing mixing of parameters includes the ability to seamlessly combine different profiles or parameter sets to achieve a better user experience. This makes it possible for the first time to mix several profiles, such as transparency, voice amplification, music settings, etc., seamlessly. Profiles can no longer be activated or deactivated in the sense of either/or. Rather, these defined profiles only define the corner points between which interpolation takes place depending on the respective four positions. Thus, when using one touch strip 20a and 20b each, at least four profiles can be available.
  • two profiles can be mixed together on the left and right side, or on the other hand - in coupled operating mode - even three or up to four profiles can be mixed together.
  • the processing devices 2 and 3 are naturally located at a position on the head that is inaccessible to the user's own visual perception, it can be advantageous to design the housing parts in such a way that it is clear where the finger is just by touching it.
  • the parts of the processing devices 2 and 3 that are connected to the touch strips 20a and 20b can be made of a different material than the touch strips 20a and 20b themselves.
  • the edge of the touch strip 20a and 20b can also be designed differently along its length, such as being corrugated, grooved, etc., in order to provide the user with haptically perceptible position information.
  • the description so far has dealt very generally with the mixing or merging of profiles, which, as discussed, can be implemented as simply as possible by moving a single finger along the respective touch strip 20a or 20b.
  • the touch strip 20a or 20b can also be used to control the alignment of virtual microphones of the Ambisonic signal processing stage.
  • the processing device can also be configured (programmed) to detect that the person 100 places two fingers on the touch strip 20a or 20b.
  • the placing can be done with fingers spread out in a V-shape (e.g. index finger and middle finger of one hand), with one finger being placed on the head area 90 and another finger on the foot area 91 and then the fingers (i.e. both) facing each other towards the middle of the touch strip 20a or 20b can be moved.
  • This movement represented by the interaction data ID generated in the process, can be interpreted by the processing device 2 or 3 to the effect that a profile is set that enables all-round sound detection as a listening experience.
  • a profile is set that enables all-round sound detection as a listening experience.
  • the placement can also occur approximately in the middle of the touch strip 20a or 20b, after which both fingers (e.g. the index finger and the middle finger of one hand) are moved away from each other, i.e. one of the two fingers towards the head area 90 and the other both fingers are moved towards the foot area 91.
  • This movement represented by the interaction data ID generated in the process, can be interpreted by the processing device 2 or 3 in such a way that a profile is set that enables frontally oriented sound detection as a listening experience.
  • a smooth transition of the values and settings is made in order to obtain the frontally oriented sound detection.
  • the touch stripe 20a or 20b can also be used to simply prevent the acoustically perceptible output of the audio data stream. Simply placing your finger on it for a longer period of time can be interpreted as muting the sound. When the processing device 2 or 3 is muted, the same gesture can be interpreted again to activate the sound emission.
  • the touch stripe 20a or 20b can also be used for the step-by-step selection of speakers in the person 100's surroundings.
  • the Ambisonic system may have preliminarily analyzed the environment of the person 100 and identified the existence of different speakers in different directions. This analysis can of course also be carried out continuously in real time.
  • a relatively slow swipe movement from top to bottom can now be interpreted as changing the focus of the virtual microphones from a first to a second speaker in a clockwise direction.
  • Such a movement from below upwards can be interpreted to mean that the focus of the virtual microphones is changed counterclockwise from a first to a second person.
  • Figure 24 is discussed below, which shows a further visualization of the mixing of two profiles PI and P2 into a final third profile P3 used in the signal processing chain 30.
  • the first profile PI has a parameter collection A and the second profile P2 has a parameter collection B.
  • the head area 90 of the touch bar 20b is 100% assigned to the PI profile, so that when the finger is positioned there, only the parameter collection A is used in the signal processing chain 30.
  • the foot area 91 of the touch bar 20b is 100% assigned to the second profile P2, so that when the finger is positioned there, only the parameter collection B is used in the signal processing chain 30.
  • Figure 25 shows how the finger position FP is specifically used to mix the profiles PI and P2.
  • the recorded finger position FP is specified with a position detection value PEW in percent between 0% at the foot area 91 and 100% at the head area 90.
  • the finger is now positioned exactly in the middle between the foot area 91 and the head area 90, so that the finger position FP is specified with a position detection value of 50%.
  • the parameter collection A of the first profile and the parameter collection B of the second Profiles weighted at only 50% each are used to generate the third profile P3.
  • FIG. 27 an exemplary parameter collection for one of the profiles that contains different audio effects is shown in FIG. 27.
  • the audio effect in question is listed as “EFFECT” in the first column S1
  • the value description is listed as “VALUE DESC” in the second column S2.
  • the relevant value is listed in the third column S3 with “VALUE”.
  • Figure 28 shows the process of personalizing a profile, here the first profile PI, using a smartphone SP.
  • An app software application
  • the smartphone SP which provides the necessary user interface.
  • the user can first select the particular profile he/she wants to customize.
  • the profile for the parameter collection A is selected, assigned to the head area 90 of the touchbar (selection "ASSIGN TO TOP") and the audio effect A (selection "EFFECT A") with a value of 100 (selection "VALUE A 100”) is selected.
  • the selection of the audio effect can be completed for the available audio effects (EFFECT B to C).
  • This results in the parameter collection A which is summarized in a data block DB.
  • This parameter collection A is then to the hearing device 2 or 3 or the hearing devices 2 and 3 (previously referred to as processing device 2 and 3), for example via Bluetooth transmitted and is available there for further audio signal processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The invention relates to a processing device (2, 3), in particular headphones or a hearing aid, - wherein the processing device (2, 3) has a signal processing chain (30) that is designed to process microphone signals (MS1 – MS4), in accordance with values or settings of signal processing parameters of a profile, into an audio data stream, wherein a first profile and a second profile are provided, and - wherein the processing device (2, 3) is designed, taking into consideration interaction data (ID), to change the values or settings of the signal processing parameters of the first profile to such values or settings of the signal processing parameters of the second profile, or vice versa, wherein the interaction data represent a user interaction detected as a movement, in particular a movement known as "hold and swipe".

Description

Titel Title

Verarbeitungseinrichtung, insbesondere Kopfhörer oder Hörgerät, zum Verarbeiten von Mikrofonsignalen in einen Audiodatenstrom Processing device, in particular headphones or hearing aid, for processing microphone signals into an audio data stream

Beschreibung Description

Technisches Feld Technical field

Die Erfindung betrifft Verarbeitungseinrichtung, insbesondere Kopfhörer oder Hörgerät zum Verarbeiten von Mikrofonsignalen in einen Audiodatenstrom. The invention relates to processing devices, in particular headphones or hearing aids, for processing microphone signals into an audio data stream.

Hintergrund Background

Die US 2009/0123013 Al offenbart als eine Verarbeitungseinrichtung ein Hörhilfegerät. Das Hörhilfegerät umfasst ein Gehäuse; mehrere innerhalb des Gehäuses angeordnete elektrische Komponenten; und ein Stellelement, das einen Einstellwert mindestens einer der elektrischen Komponenten modifiziert, wobei das Stellelement ein nicht mechanisches Stellelement ist. Das Einstellelement unterscheidet zwischen mehreren Bewegungsmustern eines erfassten Fingers oder eines Objekts und modifiziert jeweils zugeordnete Einstellwerte des Hörhilfegerätes. US 2009/0123013 A1 discloses a hearing aid device as a processing device. The hearing aid includes a housing; a plurality of electrical components disposed within the housing; and an actuator that modifies a setting value of at least one of the electrical components, the actuator being a non-mechanical actuator. The setting element distinguishes between several movement patterns of a detected finger or an object and modifies the associated setting values of the hearing aid device.

Die Bedingung dieses Hörhilfegeräts ist denkbar kompliziert, weil sich der Benutzer für die jeweilige Einstellung des betreffenden Einstellwerts das zugehörige Bewegungsmuster merken muss. Letztendlich stellt das Hörhilfegerät auch nur ein sehr eingeschränktes Funktionsspektrum bereit, das mit Hilfe seinem leistungsschwachen Benutzerinterfaces tatsächlich steuerbar ist, nämlich ein Einschalten bzw. ein Ausschalten des Hörhilfegeräts und ein Erhöhen bzw. ein Reduzieren der Lautstärke des Hörhilfegeräts. The condition of this hearing aid is extremely complicated because the user has to remember the associated movement pattern for each setting of the relevant setting value. Ultimately, the hearing aid only provides a very limited range of functions that can actually be controlled with the help of its low-performance user interface, namely switching the hearing aid on or off and increasing or reducing the volume of the hearing aid.

Die Erfindung hat sich daher die Aufgabe gestellt, eine Verarbeitungseinrichtung mit einem leistungsfähigeren Benutzerinterface bereitzustellen. The invention therefore has the object of providing a processing device with a more powerful user interface.

Zusammenfassung der Erfindung Diese Aufgabe wird durch eine Verarbeitungseinrichtung gemäß Anspruch 1 gelöst. Der Gegenstand der Erfindung ist daher eine Verarbeitungseinrichtung, insbesondere Kopfhörer oder Hörgerät, wobei die Verarbeitungseinrichtung eine Signalverarbeitungskette aufweist, die zur Verarbeitung von Mikrofonsignalen gemäß Werten bzw. Einstellungen von Signalverarbeitungsparametern eines Profils in einen Audiodatenstrom ausgebildet ist, wobei ein erstes Profil und ein zweites Profil vorgesehen sind, und wobei die Verarbeitungseinrichtung dazu ausgebildet ist, unter Berücksichtigung von Interaktionsdaten die Werte bzw. Einstellungen der Signalverarbeitungsparameter des ersten Profils hin zu jenen Werten bzw. Einstellungen der Signalverarbeitungsparameter des zweiten Profils zu verändern oder umgekehrt, wobei die Interaktionsdaten eine als Bewegung erfasste Benutzerinteraktion, wie beispielsweise ein "Wischen", "Tippen", "Halten" oder Kombination davon, insbesondere eine als „Halten und Wischen" bekannte Bewegung, repräsentieren. Summary of the invention This object is achieved by a processing device according to claim 1. The subject matter of the invention is therefore a processing device, in particular headphones or hearing aid, wherein the processing device has a signal processing chain which is designed to process microphone signals according to values or settings of signal processing parameters of a profile into an audio data stream, wherein a first profile and a second profile are provided, and wherein the processing device is designed to change the values or settings of the signal processing parameters of the first profile to those values or settings of the signal processing parameters of the second profile or vice versa, taking interaction data into account, wherein the interaction data represents a user interaction recorded as a movement, such as a "swipe", "tap", "hold" or combination thereof, in particular a movement known as "hold and swipe".

Diese Aufgabe wird weiter durch ein System gemäß dem Anspruch 14 gelöst. Die Erfindung betrifft daher ein System, bevorzugt ein Hörgeräte- System, besonders bevorzugt ein binaurales Hörgeräte-System, wobei das System zwei erfindungsgemäße Verarbeitungseinrichtungen aufweist, wobei die erste Verarbeitungseinrichtung für des linke Ohr und die zweite Verarbeitungseinrichtung für das rechte Ohr einer Person bestimmt ist. This object is further achieved by a system according to claim 14. The invention therefore relates to a system, preferably a hearing aid system, particularly preferably a binaural hearing aid system, wherein the system has two processing devices according to the invention, wherein the first processing device is intended for the left ear and the second processing device for the right ear of a person.

Mit den erfindungsgemäßen Maßnahmen geht der Vorteil einher, dass mit einer einzigen Bewegung in eine Vielzahl der Einstellungen der Signalverarbeitungsparameter der Signalverarbeitungskette gleichzeitig eingegriffen werden kann, und zwar ohne, dass der Benutzer die individuellen Einstellungen tatsächlich kennen muss, weil diese ja in dem jeweiligen Profil hinterlegt bzw. zusammengefasst sind. Es genügt also, dass der Benutzer der Verarbeitungseinrichtung sich der beiden Profile bewusst ist, die geradere zu Benutzung über das Benutzerinterface vorgesehen sind. The measures according to the invention have the advantage that, with a single movement, a large number of the settings of the signal processing parameters of the signal processing chain can be intervened at the same time, without the user actually having to know the individual settings, because these are stored in the respective profile or are summarized. It is therefore sufficient that the user of the processing device is aware of the two profiles that are intended for use via the user interface.

Die Verarbeitungseinrichtung weist somit ein innovatives Benutzerinterface, insbesondere für ein Hörgerät, auf. The processing device thus has an innovative user interface, in particular for a hearing aid.

Weitere, besonders vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen sowie der nachfolgenden Beschreibung. Betreffend die Herkunft der Interaktionsdaten kann vorgesehen sein, dass die Verarbeitungseinrichtung dazu ausgebildet ist, mittels einer Funkverbindung die Interaktionsdaten von einer externen Interaktionsquelle zu empfangen und zu nutzen. Further, particularly advantageous refinements and developments of the invention result from the dependent claims and the following description. Regarding the origin of the interaction data, it can be provided that the processing device is designed to receive and use the interaction data from an external interaction source by means of a radio connection.

Dieser Maßnahme ermöglicht es, dass auch mittels der externen Interaktionsquelle, wie z.B. einem Smartphone, einem Tabletcomputer oder auch einer cloudbasierten Softwarelösung, die Interaktionsdaten generierbar sind und mittels einer Funkverbindung an eine der Verarbeitungseinrichtungen oder an beide Verarbeitungseinrichtungen übermittelt werden, um sie dort für die weitere Verarbeitung zu nutzen. This measure makes it possible for the interaction data to be generated using the external interaction source, such as a smartphone, a tablet computer or even a cloud-based software solution, and transmitted via a radio connection to one of the processing devices or to both processing devices in order to use it there for further processing to use processing.

Betreffend die Herkunft der Interaktionsdaten kann weiters vorgesehen sein, dass die Verarbeitungseinrichtung ein Eingabemodul mit einem flächenhaften Interaktionsbereich aufweist, wobei das Eingabemodul dazu ausgebildet ist, in dem Interaktionsbereich eine Bewegung, insbesondere eine Wischbewegung, als Benutzerinteraktion zu erfassen und die diese Benutzerinteraktion repräsentierenden Interaktionsdaten bereitzustellen. Regarding the origin of the interaction data, it can further be provided that the processing device has an input module with a planar interaction area, wherein the input module is designed to detect a movement, in particular a swiping movement, in the interaction area as a user interaction and to provide the interaction data representing this user interaction.

Der flächenhafte Interaktionsbereich kann durch eine berührungssensitive Oberfläche gegeben sein. The areal interaction area can be provided by a touch-sensitive surface.

Dies lässt auch einen Betrieb unabhängig von einer externen Interaktionsquelle zu. This also allows operation independent of an external source of interaction.

Um den flächenhaften Interaktionsbereich optimal zu nützen, kann vorgesehen sein, dass die Verarbeitungseinrichtung dazu ausgebildet ist, in dem flächenhaften Interaktionsbereich zumindest zwei verschiedene Menübereiche zu definieren, wobei dem jeweiligen Menübereich eines der beiden Profile zugeordnet ist. In order to make optimal use of the area interaction area, it can be provided that the processing device is designed to define at least two different menu areas in the area interaction area, with one of the two profiles being assigned to the respective menu area.

Das Eingabemodul kann eine Kamera aufweisen oder als Kamera ausgebildet sein. Ein solches Eingabemodul kann beispielsweise eine Hand- Geste als Benutzerinteraktion erfassen. Hierfür kann die Verarbeitungseinrichtung dazu ausgebildet sein, Gegenstände, also insbesondere die Hand bzw. deren Bewegung oder auch die Position oder Kombination der Fingerausrichtungen, in erfassten Bilddaten mittels Mustererkennung zu erkennen. The input module can have a camera or be designed as a camera. Such an input module can, for example, record a hand gesture as a user interaction. For this purpose, the processing device can be designed to recognize objects, in particular the hand or its movement or the position or combination of the finger orientations, in captured image data using pattern recognition.

Es hat sich hierbei als vorteilhaft erwiesen, dass das Eingabemodul dazu ausgebildet ist, Benutzerinteraktionen innerhalb der Ohrmuschel zu erfassen oder vor der Ohrmuschel zu erfassen oder entlang des vorderen Rands der Ohrmuschel, insbesondere hin zum oberen Rand, zu erfassen. It has proven to be advantageous that the input module is designed to allow user interactions within the auricle capture or capture in front of the auricle or capture along the front edge of the auricle, especially towards the upper edge.

Dies ermöglicht es dem Benutzer des Systems, mit möglichst natürlichen Bewegungen die Benutzerinteraktion auszulösen. This allows the user of the system to trigger user interaction with movements that are as natural as possible.

Als besonders vorteilhaft hat es sich jedoch erwiesen, wenn das Eingabemodul zumindest eine Touchbar aufweist oder als Touchbar realisiert ist. However, it has proven to be particularly advantageous if the input module has at least one touchbar or is implemented as a touchbar.

Damit geht die Wirkung einher, dass im Unterschied zu Knöpfen, Schaltern oder Tastern bei einer Touchbar kein fix positionierter Aktuator bewegt werden muss. Vielmehr reicht bei der Touchbar eine einfache Berührung ihrer berührungssensitiven Oberfläche, weil die Touchbar zur kapazitiven Erfassung der Berührung ausgebildet ist. This means that, unlike buttons, switches or keys, a touch bar does not require a fixed actuator to be moved. Rather, a simple touch of the touch-sensitive surface of the touch bar is sufficient because the touch bar is designed to detect touch capacitively.

Dies ermöglicht ein breites Spektrum an Benutzerinteraktionen auf kleinstem Raum wobei die Benutzerinteraktion von der interagierenden Person gefühlt bzw. gespürt wird, weil sie ja die Touchbar berühren muss. So können die Benutzerinteraktionen verschiedene Folgen von Tipp-Bewegungen und Wischbewegungen in verschiedene Richtungen an verschiedenen Stellen der Touchbar sein. Es wird also nur ein minimaler Platz benötigt, um dem Benutzer viele unterschiedliche Eingaben zu ermöglichen. This allows a wide range of user interactions in a very small space, whereby the user interaction is felt or sensed by the interacting person because they have to touch the touch bar. The user interactions can be different sequences of taps and swipes in different directions at different points on the touch bar. So only a minimal amount of space is needed to enable the user to make many different inputs.

Innerhalb der berührungssensitiven Oberfläche können hierfür Berührungszonen auf der Touchbar hard- bzw. softwaregesteuert definiert werden bzw. auch während des Betriebs angepasst oder verändert werden, wodurch virtuelle, individuell definierbare Schaltflächen gebildet werden, die mit Funktionen der Verarbeitungseinrichtung belegt sind, z.B. Umschalten zwischen vordefinierten Profilen (zur Steuerung der Mikrofonsignalverarbeitung). Dies ermöglicht es, Profile gezielt und rasch anwählen zu können oder auch die Auswahl der Profile (für eine Signalverarbeitungskette zur Verarbeitung der Mikrofonsignale) situationsspezifisch automatisiert anzupassen. Within the touch-sensitive surface, touch zones on the touch bar can be defined using hardware or software, or can be adjusted or changed during operation, creating virtual, individually definable buttons that are assigned functions of the processing device, e.g. switching between predefined profiles (for controlling microphone signal processing). This makes it possible to select profiles quickly and specifically, or to automatically adjust the selection of profiles (for a signal processing chain for processing microphone signals) depending on the situation.

Im Zusammenhang mit der Touchbar hat es ich als besonders vorteilhaft erwiesen, wenn die Verarbeitungseinrichtung derart konfiguriert ist, dass die Touchbar beim Tragen am Kopf am vorderen Rand der Ohrmuschel positioniert ist. In connection with the touch bar, it has proven to be particularly advantageous if the processing device is configured in such a way that the touch bar is positioned at the front edge of the auricle when worn on the head.

Mit dieser Maßnahme geht die Wirkung einher, dass eine unkomplizierte und intuitive Berührung von der Seite her möglich ist. Der Arm muss dabei weniger weit gehoben werden und die Finger der Hand müssen weniger stark gekrümmt werden, als dies der Fall wäre, wenn die äußere Ausprägung der Touchbar entlang der hinteren Ohrmuschel positioniert wäre und dort auch nur von hinten her berührt werden kann. Dies ist insbesondere für ältere Menschen wichtig, deren Bewegungsfähigkeit üblicherweise eingeschränkt ist. This measure has the effect that an uncomplicated and intuitive touch from the side is possible. The arm The touch bar does not have to be lifted as far and the fingers of the hand do not have to be bent as much as would be the case if the outer part of the touch bar were positioned along the back of the ear and could only be touched from behind. This is particularly important for older people, whose mobility is usually limited.

Hinsichtlich der benutzerinteraktionsbedingten Veränderung der Werte und Einstellungen kann vorgesehen sein, dass im Fall von kontinuierlich bzw. quasikontinuierlich veränderbaren Werten bez. Einstellungen die Verarbeitungseinrichtung zum kontinuierlichen bzw. quasikontinuierlichen Verändern der Werte bzw. Einstellungen ausgebildet ist, wobei der Grad der Veränderung mit der Weite der erfassten Bewegung skaliert. With regard to the change in values and settings due to user interaction, it can be provided that in the case of continuously or quasi-continuously changeable values or settings, the processing device is designed to continuously or quasi-continuously change the values or settings, wherein the degree of change scales with the extent of the detected movement.

Hinsichtlich der benutzerinteraktionsbedingten Veränderung der Werte und Einstellungen kann weiters vorgesehen sein, dass im Fall von nur schrittweise oder nur sprunghaft veränderbaren Werten bzw. Einstellungen die Verarbeitungseinrichtung zum schrittweisen oder sprunghaften Verändern der Werte bzw. Einstellungen bei Eintreten eines Schwellwerts der erfassten Bewegung ausgebildet ist. With regard to the change in values and settings due to user interaction, it can further be provided that in the case of values or settings that can only be changed step by step or only abruptly, the processing device is designed to change the values or settings step by step or abruptly when a threshold value of the detected movement occurs.

Hinsichtlich der benutzerinteraktionsbedingten Veränderung der Werte und Einstellungen kann weiters vorgesehen sein, dass die Verarbeitungseinrichtung zum Verändern der Werten bzw. Einstellungen auch in dem Fall ausgebildet ist, dass ein Profil eine Mischung aus kontinuierlich bzw. quasikontinuierlich veränderbaren Werten bez. Einstellungen und schrittweise oder nur sprunghaft veränderbaren Werten bzw. Einstellungen aufweist. With regard to the change in values and settings due to user interaction, it can further be provided that the processing device is designed to change the values or settings even in the case that a profile has a mixture of continuously or quasi-continuously changeable values or settings and values or settings that can be changed step by step or only in jumps.

Bei der Verarbeitungseinrichtung wird bei einem Eintreten der erörterten Veränderung die Signalverarbeitung gemäß dem ersten Profil in eine Signalverarbeitung gemäß der nunmehr vorliegenden veränderten Werten bzw. Einstellungen übergeführt. Hierbei können die Werte und Einstellungen Zwischenzustände zwischen den durch die beiden Profile definierten Grenzen der Werte bzw. Einstellungen einnehmen. Nur wenn die erfasste Bewegung die gesamte zur Verfügung stehende Länge/Breite/Diagonale usw. des flächenhaften Interaktionsbereichs ausnützt oder zu einer vordefinierten Bewegungsweite bzw. -form korrespondiert, wird zu einhundert Prozent von dem ersten Profil auf das zweite Profil umgestellt. Andernfalls kommen die erwähnten Zwischenzustände zum Einsatz. In the processing device, when the change discussed occurs, the signal processing according to the first profile is converted into signal processing according to the changed values or settings that are now present. The values and settings can assume intermediate states between the limits of the values or settings defined by the two profiles. Only if the detected movement uses the entire available length/width/diagonal etc. of the areal interaction area or corresponds to a predefined movement range or shape switched one hundred percent from the first profile to the second profile. Otherwise, the intermediate states mentioned are used.

Hinsichtlich der benutzerinteraktionsbedingten Veränderung der Werte und Einstellungen kann weiters vorgesehen sein dass im Fall, wenn für einen Signalverarbeitungsparameter des ersten Profils kein korrespondierender Parameter des zweiten Profils oder umgekehrt vorliegt, die Verarbeitungseinrichtung dazu ausgebildet ist, den betreffenden Signalverarbeitungsparameter so lange unverändert zu belassen, With regard to the user interaction-related change in the values and settings, it can further be provided that if there is no corresponding parameter of the second profile for a signal processing parameter of the first profile or vice versa, the processing device is designed to leave the relevant signal processing parameter unchanged for as long as

- bis ein vollständiger Wechsel von dem ersten Profil auf das zweite Profil eingetreten ist oder - until a complete change from the first profile to the second profile has occurred or

- bis ein prozentueller Schwellwert, wie z.B. 25% 50% oder 75%, der maximalen Bewegung erfasst wurde oder - until a percentage threshold, such as 25%, 50% or 75%, of the maximum movement has been detected or

- bis die im Wesentlichen kontinuierlich veränderlichen Werte bzw. Einstellungen gemäß einem Schwellwert, wie z.B. 25% 50% oder 75%, verändert wurden. - until the essentially continuously changing values or settings have been changed according to a threshold value, such as 25%, 50% or 75%.

Mit dieser Maßnahme kann vermieden werden, dass die betreffende Wirkung des nur im ersten Profil verfügbaren Parameters zu abrupt einsetzt. Analog kann auch mit einem Signalverarbeitungsparameter des zweiten Profils verfahren werden, zu dem es keinen korrespondierenden Parameter im ersten Profil gibt. This measure can be used to prevent the relevant effect of the parameter, which is only available in the first profile, from starting too abruptly. You can also proceed analogously with a signal processing parameter of the second profile for which there is no corresponding parameter in the first profile.

Als besonders vorteilhat hat es sich weiters herausgestellt, dass die Verarbeitungseinrichtung dazu ausgebildet ist, die gemäß der erfassten Bewegung vorzunehmende Veränderung der Signalverarbeitungsparameter in Echtzeit in der Signalverarbeitungskette umzusetzen. It has also proven to be particularly advantageous that the processing device is designed to implement the change in the signal processing parameters to be made in accordance with the detected movement in real time in the signal processing chain.

Mit dieser Maßnahme geht die Wirkung einher, dass das Ergebnis dieser Veränderung der Signalverarbeitungsparameter unmittelbar wahrnehmbar ist. This measure has the effect that the result of this change in the signal processing parameters is immediately perceptible.

Die Verarbeitungseinrichtung erlaubt also - wie eingangs bereits als erwähnt - eine „Halten und Wischen" Funktionalität, die im Fachjargon als „Wischbewegung" Funktionalität bezeichnet wird, was auf vorteilhafte Weise im Kontext des Systems dazu eingesetzt wird, um Profile miteinander zu mischen. Dabei berührt die Person zunächst eine der Profilzonen 53 - 55, belässt den Finger auf ihr und zieht den Finger dann in die benachbarte Profilzone, bevor der Finger von dem berührungssensitiven Element abgehoben wird. Dies wird softwaremäßig so interpretiert, dass die den beiden durch die Finger überstrichenen Profilzonen zugeordneten Profile zu mischen sind. Gemäß einer weiteren Variante sei erwähnt, dass es nicht zwingend notwendig sein muss, den Finger für eine gewisse Zeit irgendwo zu belassen, um die erwähnte Funktionalität auszulösen. The processing device therefore allows - as already mentioned at the beginning - a "hold and swipe" functionality, which in technical jargon is referred to as a "swipe" functionality, which is advantageously used in the context of the system to mix profiles with each other. The person first touches one of the profile zones 53 - 55, leaves the finger on it and then pulls the finger into the adjacent profile zone before the finger is lifted from the touch-sensitive element. This is interpreted by the software in such a way that the the profiles assigned to both profile zones swept by the fingers are to be mixed. According to another variant, it should be mentioned that it is not absolutely necessary to leave the finger somewhere for a certain period of time in order to trigger the mentioned functionality.

Es lässt sich der Grad des Mischens (oder in anderen Worten das Mischverhältnis) der beiden zu mischenden Profile durch die Weite der Wischbewegung (defacto zwischen 0 und 100%) einstellen. The degree of mixing (or in other words the mixing ratio) of the two profiles to be mixed can be adjusted by the width of the wiping movement (defacto between 0 and 100%).

Somit kann das Mischverhältnis von der Weite der Fingerbewegung gesteuert werden, also in Echtzeit dynamisch angepasst werden. This means that the mixing ratio can be controlled by the width of the finger movement, meaning it can be dynamically adjusted in real time.

Mit Hilfe der „Wischbewegung" Funktionalität kann der Benutzer auch, solange sein Finger auf dem berührungssensitiven Element anliegt, dort jedoch bewegt wird, zwischen den beiden Profilen dynamisch hin und herwechseln bzw. den Mischgrad dynamisch verändern, um z.B. auszuloten, welches Mischverhältnis für ihn am besten passt oder um z.B. bewusst zwischen zwei Mischverhältnissen hin und her zu wechseln, um in kurzen Zeitabständen seine akustische Wahrnehmung gemäß dem ersten Profil oder dem zweiten Profil temporär zu optimieren. Erst wenn er den Finger von dem berührungssensitiven Element abhebt, ist das zu diesem Zeitpunkt eingestellte Mischverhältnis fixiert. With the help of the "wiping movement" functionality, the user can dynamically switch back and forth between the two profiles or dynamically change the degree of mixing, for example, to find out which mixing ratio is best for him, as long as his finger is in contact with the touch-sensitive element but is moved there best fits or, for example, to consciously switch back and forth between two mixing ratios in order to temporarily optimize his acoustic perception according to the first profile or the second profile at short intervals. Only when he lifts his finger from the touch-sensitive element is this point in time set mixing ratio fixed.

Es hat sich daher als vorteilhaft erwiesen, dass die Verarbeitungseinrichtung dazu ausgebildet ist, das Verändern der Signalverarbeitungsparameter gemäß der erfassten Bewegung erst dann zu fixieren, wenn die Benutzerinteraktion, wie beispielsweise ein "Wischen", "Tippen", "Halten" oder Kombination davon, insbesondere eine als „Halten und Wischen" bekannte Bewegung, was im Fachjargon auch als „Wischbewegung" bezeichnet wird, endet. It has therefore proven to be advantageous that the processing device is designed to fix the change in the signal processing parameters according to the detected movement only when the user interaction, such as a "swipe", "tap", "hold" or combination thereof, in particular a movement known as "hold and swipe", which in technical jargon is also referred to as a "swipe movement", ends.

Gemäß einem weiteren Aspekt ist die Verarbeitungseinrichtung dazu ausgebildet, bei einer vordefinierten Benutzerinteraktion, wie etwa einer als besonders rasch ausgeführten Streichbewegung, die sich von jener unterscheidet, mit der die Profile gemischt werden, oder einer als ein „Tippen & Halten" erfassten Benutzerinteraktion, ein Home-Profil zu aktivieren. According to a further aspect, the processing device is designed to respond to a predefined user interaction, such as a particularly rapid swipe movement that differs from that with which the profiles are mixed, or a user interaction recorded as a “tap & hold”. Activate home profile.

Es kommt der Benutzer bzw. User, also die das System tragende Person, mit einer „swipe" Geste nach oben oder unten, also mit einer das berührungssensitive Element berührenden raschen Streichbewegung des Fingers über die beiden Zonen, stets wieder zurück in den ursprünglichen, stabilen Hörmodus (das „Home" Profil), egal, ob diese „swipe" Geste bei der ersten Verarbeitungseinrichtung oder der zweiten Verarbeitungseinrichtung ausgeführt wird. The user, i.e. the person wearing the system, always returns to the original position with a "swipe" gesture up or down, i.e. with a quick stroking movement of the finger across the two zones touching the touch-sensitive element. stable listening mode (the "Home" profile), regardless of whether this "swipe" gesture is performed on the first processing device or the second processing device.

Somit lässt sich auch ohne ein externes Gerät, wie z.B. ein Smartphone oder ein Tabletcomputer usw. eine komplexe Befehlskette einfach steuern, die in jedes Element der Signalverarbeitungskette eingreifen kann, soweit dies nötig ist. This makes it easy to control a complex command chain without an external device, such as a smartphone or tablet computer, etc., which can intervene in every element of the signal processing chain as necessary.

Somit kann das ganze System auf berührbare Weise steuerbar gemacht werden. Wie erwähnt, ist die Touchbar frei belegbar und kann praktisch sämtliche System parameter, also die Einstellungen der Signalverarbeitungskette steuern. Damit kann der User in Echtzeit in seine Soundrealität eingreifen. Es lassen sich damit auch dynamische Profile generieren, wobei die auf die Touchbar gelegten Profile wie erörtert untereinander gemischt werden. Damit lassen sich z.B. komplexe DSP- Funktionen einfach steuern und der User hat das Gefühl, er interagiert mit dem Sound. Das bei bekannten Systemen oft als nachteilig wahrgenommene Gefühl des Users, er würde nur Programme mit einem Plastikknopf wechseln, wird somit völlig vermieden. This means the entire system can be made controllable in a tangible way. As mentioned, the touchbar is freely assignable and can control practically all system parameters, i.e. the settings of the signal processing chain. This allows the user to intervene in their sound reality in real time. It can also be used to generate dynamic profiles, whereby the profiles placed on the touchbar are mixed with each other as discussed. This makes it easy to control complex DSP functions, for example, and the user has the feeling that he is interacting with the sound. The user's feeling that he would only change programs with a plastic button, which is often perceived as a disadvantage with known systems, is thus completely avoided.

Mit Hilfe dieser Maßnahmen kann der Benutzer selbst im laufenden Betrieb tief in die Funktion der Signalverarbeitungskette eingreifen. Zudem kann damit ein Hörtest durchgeführt und ausgewertet werden und die Defizite eruiert werden, weil das Eingabemodul vielfältigste Interaktionen zulässt. With the help of these measures, the user can intervene deeply in the function of the signal processing chain even during operation. In addition, a hearing test can be carried out and evaluated and deficits can be identified because the input module allows a wide variety of interactions.

Das mit den beschriebenen technischen Maßnahmen ausgerüstete System kann auch ein Teilen eines aus den Mikrofonsignalen generierten Audiodatenstroms in Echtzeit mit einem anderen externen Gerät ermöglichen. Dies kann beispielsweise mit Hilfe einer Funkverbindung mit dem externen Gerät oder einer leitungsgebundenen Verbindung über den (magnetisch haltenden) Anschluss erfolgen. Diese Funktionalität erlaubt es einer anderen Person mit Hilfe des anderen Gerätes das zugrundeliegende Audio-Erlebnis der das System tragenden Person live mitzuerleben. Diese Funktionalität kann auch dazu eingesetzt werden, auf dem anderen Gerät in Echtzeit das Audioerlebnis, also den Audiodatenstrom, zu analysieren. The system equipped with the technical measures described can also enable an audio data stream generated from the microphone signals to be shared in real time with another external device. This can be done, for example, using a radio connection to the external device or a wired connection via the (magnetically holding) connection. This functionality allows another person to experience the underlying audio experience of the person wearing the system live using the other device. This functionality can also be used to analyze the audio experience, i.e. the audio data stream, on the other device in real time.

Das System, insbesondere die Verarbeitungseinrichtungen, können auch jeweils einen Datenspeicher aufweisen, mit dessen Hilfe die generierten Mikrofonsignale im Rohdatenformat oder auch vorverarbeitet kontinuierlich oder auch auf einen zeitlichen Bereich des Auftretens eines Audio-Ereignisses beschränkt gespeichert werden. Dazu korrespondierend werden auch die Einstellungen bzw. Parameter gespeichert, die bei der Signalverarbeitungskette zur Erstellung des Audiodatenstroms aus den Mikrofonsignalen eingesetzt wurden. Treten bei dem Benutzer des Systems nun Probleme in der Audiowahrnehmung auf, kann durch gezielte, systematische Anpassung bzw. Veränderung der Einstellungen bzw. Parameter ermittelt werden, mit welchen Werten für die Einstellung bzw. Parameter die Audiowahrnehmung bei dem Benutzer verbessert wird. Die gespeicherten Daten erlauben insbesondere ein inkrementelles und auf Wiederholung basierendes Anpassen der Einstellungen und Parameter, um für ein und dasselbe Audio-Erlebnis die passenden Parameter zu ermitteln. Dies ist insbesondere deshalb wichtig, weil die persönliche Audiowahrnehmung oft auf Subjektivität beruht, die es der Person erschwert, dies zum Beispiel einem Audiologen in einer objektiven Form mitzuteilen. Weiterhin können auch die zu dem jeweiligen Audio-Erlebnis korrespondierenden Audiodatenströme, die unter Anwendung verschiedenster Einstellungen und Parameter bzw. deren Veränderungen erstellt wurden, gespeichert werden. Dies erlaubt es dem Benutzer durch vergleichendes Anhören (also sequentielles Abspielen der Audiodatenströme) die für ihn passenden Einstellungen und Parameter einzugrenzen, was wiederum dem Audiologen oder einer softwarebasierten audiologischen Applikation die Möglichkeit gibt, das optimierte Set von Einstellungen bzw. Parametern zu finden. The system, in particular the processing devices, can also each have a data storage device with the help of which the generated microphone signals in raw data format or also pre-processed can be continuously or limited to a time range of the occurrence of an audio event. Correspondingly, the settings or parameters that were used in the signal processing chain to create the audio data stream from the microphone signals are also saved. If the user of the system now has problems with audio perception, it can be determined by targeted, systematic adjustment or change of the settings or parameters which values for the setting or parameter improve the user's audio perception. The stored data allows incremental and repetitive adjustment of the settings and parameters in particular in order to determine the appropriate parameters for one and the same audio experience. This is particularly important because personal audio perception is often based on subjectivity, which makes it difficult for the person to communicate this in an objective form to an audiologist, for example. Furthermore, the audio data streams corresponding to the respective audio experience, which were created using a wide variety of settings and parameters or changes to them, can also be saved. This allows the user to narrow down the settings and parameters that are suitable for him by comparative listening (i.e. sequential playback of the audio data streams), which in turn gives the audiologist or a software-based audiological application the opportunity to find the optimized set of settings or parameters.

Die beiden Verarbeitungseinrichtungen des Systems können unabhängig voneinander hinsichtlich der Nutzung der dort verfügbaren Profile oder des Mischverhältnisses der dortigen Profile eingestellt werden, was einen möglichst flexiblen und voneinander losgelösten Betrieb der beiden Verarbeitungseinrichtungen erlaubt. In dieser Konfiguration können bei einer Touchbar-Belegung von zwei Profilen pro Touchbar also - maximal vier Profile in Summe - zum Einsatz kommen, wobei pro Verarbeitungseinrichtung jeweils zwei Profile gemäß der vorliegenden Bewegung flüssig ineinander übergeführt werden können. Dieser Betriebsmodus wird als „unabhängiger Modus" bezeichnet, wobei jede der beiden Verarbeitungseinrichtung die Bewegung unabhängig von der anderen interpretiert und die bei ihr gemäß der erfassten Bewegung sich ergebenden Werte und Einstellungen der Signalverarbeitungsparameter zur Anwendung bringt. The two processing devices of the system can be set independently of each other with regard to the use of the profiles available there or the mix ratio of the profiles there, which allows the two processing devices to be operated as flexibly and independently of each other as possible. In this configuration, with a touch bar assignment of two profiles per touch bar, a maximum of four profiles in total can be used, whereby two profiles per processing device can be smoothly converted into one another according to the movement in question. This operating mode is referred to as "independent mode", whereby each of the two processing devices interprets the movement independently of the other and carries out the movement resulting values and settings of the signal processing parameters.

Es hat sich jedoch als besonders vorteilhaft erwiesen, wenn die beiden Verarbeitungseinrichtung zum funkbasierten Übertragen der Interaktionsdaten von der ersten Verarbeitungseinrichtung an die zweite Verarbeitungseinrichtung oder umgekehrt ausgebildet sind und jene die Interaktionsdaten von der anderen Verarbeitungseinrichtung empfangende Verarbeitungseinrichtung dazu ausgebildet ist, die empfangenen Interaktionsdaten analog zu der die Interaktionsdaten aussendenden Verarbeitungseinrichtung zu berücksichtigen. Damit lässt sich ein hochsymmetrischer Betrieb der beiden Verarbeitungseinrichtungen etablieren, der nur durch eine einseitige Benutzerinteraktion an einer der beiden Verarbeitungseinrichtungen beeinflusst wird. In diesem Fall ist von einem „verlinkten Modus" die Rede. Dieser verlinkte Modus ist insbesondere dann von Interesse, wenn bei beiden Verarbeitungseinrichtungen die gleichen Profil-Paare zur Anwendung kommen und es für den Benutzer unbedeutend sein soll, an welcher Verarbeitungseinrichtung er die Touchbar benützt, um die Profile ineinander überzuführen. However, it has proven to be particularly advantageous if the two processing devices are designed for radio-based transmission of the interaction data from the first processing device to the second processing device or vice versa, and the processing device receiving the interaction data from the other processing device is designed to transmit the received interaction data analogously to that the processing device that sends out interaction data must be taken into account. This makes it possible to establish highly symmetrical operation of the two processing devices, which is only influenced by a one-sided user interaction on one of the two processing devices. In this case, we are talking about a “linked mode”. This linked mode is of particular interest if the same profile pairs are used in both processing devices and it should be unimportant for the user on which processing device he uses the touch bar to merge the profiles into one another.

Das System kann jedoch in einem asynchron verlinkten Modus so konfiguriert sein, dass eine Funkverbindung zwischen den Verarbeitungseinrichtungen zum Senden der eigenen Interaktionsdaten an die andere Verarbeitungseinrichtung und zum Empfange der Interaktionsdaten von der anderen Verarbeitungseinrichtung besteht. Synchron ausgeführte Gesten auf beiden Verarbeitungseinrichtungen (also zur linken und rechten Seite des Kopfes) können als eine Geste interpretiert werden und beide Verarbeitungseinrichtungen können aufgrund unterschiedlicher Eingaben auf beiden Seiten eine synchrone Ausführung durchführen. Es kann auch vorgesehen sein, dass einzelne Interaktionen auf beiden Seiten unterschiedliche Funktionen ausführen, die mit der anderen Verarbeitungseinrichtung synchronisiert werden können. Beispielsweise definiert ein Benutzer das Wischen nach oben als ein Erhöhen der Lautstärke auf der linken Seite, das Wischen nach oben auf der rechten Seite jedoch als Stummschalten der Tonausgabe. Wenn der Benutzer dann auf der rechten Seite nach oben wischt, werden beide Geräte stummgeschaltet, während durch Wischen auf der linken Seite nach oben die Lautstärke auf beiden Geräten erhöht wird. However, the system can be configured in an asynchronously linked mode such that there is a radio connection between the processing devices for sending their own interaction data to the other processing device and for receiving the interaction data from the other processing device. Gestures executed synchronously on both processing devices (i.e. to the left and right sides of the head) can be interpreted as one gesture and both processing devices can perform synchronous execution based on different inputs on both sides. It can also be provided that individual interactions on both sides carry out different functions that can be synchronized with the other processing device. For example, a user defines swiping up as increasing the volume on the left side, but swiping up on the right as muting the sound. If the user then swipes up on the right side, both devices will be muted while Swiping up on the left side increases the volume on both devices.

Weiters kann ein asynchron unverlinkter Modus vorgesehen sein. Auch in diesem Modus besteht die zuvor beim asynchron verlinkten Modus erwähnte Funkverbindung zum Austauschen der jeweiligen Interaktionsdaten, damit jede Seite über die jeweiligen Benutzerinteraktion informiert ist. Diese Funkverbindung ist jedoch nicht zwingend nötig. Allerdings verhalten sich die Verarbeitungseinrichtungen in diesem Modus so, dass Änderungen nur auf jener Seite des Kopfes bzw. von der dort positionierten Verarbeitungseinrichtungen durchgeführt werden., wo die Benutzerinteraktion passiert bzw. stattfindet. Furthermore, an asynchronously unlinked mode can be provided. In this mode, too, there is the radio connection mentioned above in the asynchronously linked mode for exchanging the respective interaction data so that each side is informed about the respective user interaction. However, this radio connection is not absolutely necessary. However, in this mode, the processing devices behave in such a way that changes are only carried out on that side of the head or by the processing devices positioned there, where the user interaction happens or takes place.

Hinsichtlich der Funk-Funktionalität sei erwähnt, dass bei den beiden Verarbeitungseinrichtungen gängige Funkmodule zur Funkkommunikation zur Anwendung kommen können. Hierbei kann es sich beispielsweise Near Field Communication, kurz NFC, ZigBee, Wi-Fi, handeln oder auch ein proprietäres Protokoll Anwendung finden. Die Funkmodule sind entsprechend der jeweiligen Funktechnologie ausgebildet, wobei ggf. eine spezielle Software (Treibersoftware), die das jeweilige Protokoll bereitstellt, zum Einsatz kommt. With regard to the radio functionality, it should be mentioned that common radio modules for radio communication can be used in the two processing devices. This can be, for example, Near Field Communication, NFC for short, ZigBee, Wi-Fi, or a proprietary protocol can also be used. The radio modules are designed according to the respective radio technology, whereby special software (driver software) that provides the respective protocol is used if necessary.

Als besonders vorteilhaft hat es sich erwiesen, wenn es sich bei den Funkverbindungen um Bluetooth-Funkverbindungen handelt. Hierfür sind die Funkmodule als Bluetooth-Funkmodule ausgebildet. It has proven to be particularly advantageous if the radio connections are Bluetooth radio connections. For this purpose, the radio modules are designed as Bluetooth radio modules.

Jede der Verarbeitungseinrichtungen weist zumindest zwei Mikrofone auf, mit der individuelle Mikrofonsignale bereitgestellt werden, die zwischen den beiden Verarbeitungseinrichtungen ausgetauscht werden. Each of the processing devices has at least two microphones, which provide individual microphone signals that are exchanged between the two processing devices.

Hinsichtlich der Verarbeitung der Mikrofonsignale sei erwähnt, dass zum Verarbeiten der Mikrofonsignale unterschiedliche grundsätzlich bekannte Verfahren oder Methoden bzw. Algorithmen Anwendung finden können. So können die Mikrofonsignale beispielsweise gemäß der „Dolby Atmos"- Technologie oder der Aureal 3-Dimensional-Technologie, kurz A3D- Technologie oder dem Auro-3D-Format weiterverarbeitet werden. With regard to the processing of the microphone signals, it should be mentioned that different fundamentally known procedures or methods or algorithms can be used to process the microphone signals. For example, the microphone signals can be further processed according to “Dolby Atmos” technology or Aureal 3-Dimensional technology, or A3D technology for short, or the Auro 3D format.

Als besonders vorteilhaft hat es sich erwiesen, dass jede der Verarbeitungseinrichtungen zum Verarbeiten der zwei Gruppen der Mikrofonsignale gemäß dem Ambisonics-Format ausgebildet ist. It has proven to be particularly advantageous that each of the processing devices is designed to process the two groups of microphone signals according to the Ambisonics format.

Der große Vorteil ergibt sich insbesondere dadurch, dass dieses Format weit verbreitet ist und daher auch weitgehend Akzeptanz findet. Damit lässt es sich unkompliziert anwenden, weil bereits definierte Vorgehensweisen für die Signalverarbeitung vorhanden sind. Ambisonics ist also ein dem Fachmann grundsätzlich bekanntes voll-sphärisches Audioformat und kommt insbesondere im B-Format zur Anwendung. The big advantage is that this format is widespread and therefore widely accepted. This makes it easy to use because there are already defined procedures for signal processing. Ambisonics is therefore a fully spherical audio format that is generally known to experts and is used in particular in the B format.

Die Verwendung des Ambisonics-Formats erlaubt weiterhin eine einfache und bekannte Nutzung der erfassten Mikrofonsignale. So können diese beispielsweise aufgenommen und als Aufnahmedaten gespeichert werden. Im Weiteren können diese Aufnahmedaten systemintern oder durch andere Geräte weiterverarbeitet werden. So können die Aufnahmedaten zum Beispiel von sogenannten „(z.B. Video- und/oder Audio-)Content Creator" verwendet werden, um die aufgenommenen Aufnahmedaten in einer eigenen (proprietären) Verarbeitungsumgebung zu verwenden. The use of the Ambisonics format also allows for a simple and familiar use of the recorded microphone signals. For example, they can be recorded and saved as recording data. This recording data can then be further processed within the system or by other devices. For example, the recording data can be used by so-called "(e.g. video and/or audio) content creators" to use the recorded recording data in their own (proprietary) processing environment.

Vorteilhafterweise wird das Ambisonics-Format im Kontext der Erfindung in der weiteren systeminternen Verarbeitungskette verwendet, um den Einsatz von einem oder mehreren virtuellen Mikrofonen zu ermöglichen, sodass mit Hilfe des Systems rein softwarebasiert, also ohne weitere externe Hilfsmittel die Richtcharakteristik des jeweiligen virtuellen Mikrofons auf individuelle Schallquellen (z.B. Geräte, Fahrzeuge oder Personen) im Schallerfassungsbereich fokussierbar ist. Dies hat sich insbesondere bei dem Einsatz des Systems als binaurales Hörgeräte -System zur Unterstützung von hörbeeinträchtigten Personen als vorteilhaft erwiesen. Advantageously, in the context of the invention, the Ambisonics format is used in the further system-internal processing chain to enable the use of one or more virtual microphones, so that with the help of the system, the directivity of the respective virtual microphone is tailored to individual users in a purely software-based manner, i.e. without any additional external aids Sound sources (e.g. devices, vehicles or people) can be focused in the sound detection area. This has proven to be particularly advantageous when using the system as a binaural hearing aid system to support people with hearing impairments.

Bereits die oben erwähnte Basiskonfiguration bestehend aus den beiden Mikrofonen pro Verarbeitungseinrichtung bildet die Grundlage für eine Audiosignalverarbeitung gemäß dem grundsätzlich bekannten Ambisonics- Format in der ersten Ordnung. Gegebenenfalls ist eine Transformation der Mikrofonsignale von einem Koordinatensystem in ein anderes nötig, um die bevorzugte Anordnung und/oder Ausrichtung der Mikrofone für die Benutzung des Ambisonics-Formats konventionskonform zugänglich zu machen. Für den Fall, dass mehr Mikrofone als in der Basiskonfiguration vorhanden sind, ggf. auch entsprechende Orientierungen bzw. Richtcharakteristiken vorliegen, können auch höhere Ordnungen des Ambisonics-Formats verarbeitet werden. Es sei angemerkt, dass auch bei der Verwendung anderer Formate die Nutzung mehrerer Mikrofone eine Beschreibung einer höheren Ordnung der sphärischen Harmonik erlaubt. Die vollautomatische oder auf User-Interaktion basierende dreidimensionale Interpretation der Mikrofonsignale erlaubt es, eine bestimmte Schallquelle sowie die Richtung der Schallquelle bezogen auf die jeweilige Orientierung der Verarbeitungseinrichtung auszumachen. Die Geräusche dieser Schallquelle können nun für die Person je nach Vorgabe oder Eigenschaft der Geräusche verstärkt oder ausgeblendet werden. The basic configuration mentioned above, consisting of the two microphones per processing device, already forms the basis for audio signal processing in accordance with the generally known Ambisonics format in the first order. It may be necessary to transform the microphone signals from one coordinate system to another in order to make the preferred arrangement and/or orientation of the microphones accessible for use in the Ambisonics format in accordance with the convention. If there are more microphones than in the basic configuration, and if there are corresponding orientations or directional characteristics, higher orders of the Ambisonics format can also be processed. It should be noted that even when using other formats, the use of multiple microphones allows a description of a higher order of the spherical harmonics. The fully automatic or user-interaction-based three-dimensional interpretation of the microphone signals makes it possible to identify a specific sound source and the direction of the sound source in relation to the respective orientation of the processing device. The sounds from this sound source can now be amplified or muted for the person depending on the specification or properties of the sounds.

Die Richtung der Schallquelle kann hierbei vollautomatisch mittels des (an sich im Kontext von Ambisonics bekannten) Vorgangs des „Beamforming" ermittelt werden. Unter dem Beamformig versteht man allgemein das Orientieren einer Richtcharakteristik (eines im Kontext von Ambisonics bekannten virtuellen Mikrophons), ggf. auch das Modellieren der Richtcharakteristik (dieses virtuellen Mikrofons). The direction of the sound source can be determined fully automatically using the process of “beamforming” (known in the context of Ambisonics). Beamforming is generally understood to mean the orienting of a directional characteristic (of a virtual microphone known in the context of Ambisonics), if necessary modeling the directivity (of this virtual microphone).

Wird die Schallquelle oder das System durch den Raum bewegt, muss die Veränderung der Position der Schallquelle gegenüber dem System bzw. dessen Orientierung, die sich bei einem Hörgerät aus der Orientierung des Kopfes ergibt, berücksichtigt werden, um weiterhin auf die zuvor fokussierte Schallquelle fokussiert zu bleiben und deren Schall zu verstärken oder auszublenden. Auch für diesen - ggf. auch automatisierten - Vorgang kann das erwähnte „Beamforming" bei einem virtuellen Mikrofon eingesetzt werden. So kann das Schallfeld permanent abgetastet werden und die Position der „wandernden" Schallquelle verfolgt werden. If the sound source or the system is moved through the room, the change in the position of the sound source relative to the system or its orientation, which in the case of a hearing aid results from the orientation of the head, must be taken into account in order to continue to focus on the previously focused sound source stay and amplify or block out their sound. The aforementioned “beamforming” can also be used with a virtual microphone for this - possibly automated - process. In this way, the sound field can be permanently scanned and the position of the “traveling” sound source can be tracked.

Abschließend sei noch allgemein erwähnt, dass die erörterten elektronischen Geräte (ESLs, Smartphone, Tablet-Computer, Video- Regalschiene, usw.) natürliche eine Elektronik aufweisen. Die Elektronik kann diskret oder durch integrierte Elektronik oder auch eine Kombination aus beiden aufgebaut sein. Auch können Microcomputer, Micro Controller, Application Specific Integrated Circuits (ASICs), ggf. in Kombination mit analogen oder digitalen elektronischen Peripheriebausteinen zum Einsatz kommen. Viele der erwähnten Funktionalitäten der Geräte werden - ggf. im Zusammenwirken mit Hardwarekomponenten - mit Hilfe einer Software realisiert, die auf einem Prozessor der Elektronik ausgeführt wird. Zur Funkkommunikation ausgebildete Geräte weisen üblicherweise als Bestandteil eines Transceiver-Moduls eine Antennenkonfiguration zum Senden und Empfangen von Funk-Signalen auf. Die elektronischen Geräte können zudem eine interne elektrische Leistungsversorgung aufweisen, die beispielsweise mit einer austauschbaren oder aufladbaren Batterie realisiert sein kann. Auch können die Geräte leitungsgebunden, entweder durch ein externes Netzteil oder auch mittel „Power over LAN" versorgt werden. Finally, it should be mentioned in general that the electronic devices discussed (ESLs, smartphones, tablet computers, video shelf rails, etc.) naturally have electronics. The electronics can be constructed discretely or through integrated electronics or a combination of both. Microcomputers, micro controllers, application specific integrated circuits (ASICs), possibly in combination with analog or digital electronic peripheral components, can also be used. Many of the mentioned functionalities of the devices are implemented - possibly in conjunction with hardware components - with the help of software that is executed on an electronics processor. Devices designed for radio communication usually have an antenna configuration for sending and receiving radio signals as part of a transceiver module. The electronic devices can also have an internal electrical power supply, for example can be realized with a replaceable or rechargeable battery. The devices can also be powered by wires, either through an external power supply or via “Power over LAN”.

Diese und weitere Aspekte der Erfindung ergeben sich durch die nachfolgend erörterten Figuren. These and other aspects of the invention will become apparent from the figures discussed below.

Figurenkurzbeschreibung Character description

Die Erfindung wird im Folgenden unter Hinweis auf die beigefügten Figuren anhand von Ausführungsbeispielen noch einmal näher erläutert, auf welche die Erfindung jedoch nicht beschränkt ist. Dabei sind in den verschiedenen Figuren gleiche Komponenten mit identischen Bezugszeichen versehen. Es zeigen auf schematische Weise: The invention is explained in more detail below with reference to the attached figures using exemplary embodiments, to which the invention is, however, not limited. The same components are provided with identical reference numbers in the various figures. It shows in a schematic way:

Fig. 1 einen Kopf einer Person mit einem binauralen Hörgeräte-System mit je einer Verarbeitungseinrichtung an jedem Ohr des Kopfes; 1 shows a head of a person with a binaural hearing aid system with a processing device on each ear of the head;

Fig. 2 Richtungsangabe für das binaurale Hörgeräte-System in der horizontalen Ebene bezogen auf den Kopf; Fig. 2 direction information for the binaural hearing aid system in the horizontal plane relative to the head;

Fig. 3 Richtcharakteristiken der in dem binauralen Hörgeräte-System zur Anwendung kommenden Mikrofone; Fig. 3 Directional characteristics of the microphones used in the binaural hearing aid system;

Fig. 4 ein Blockschaltbild eines binauralen Hörgeräte-Systems; Fig. 4 is a block diagram of a binaural hearing aid system;

Fig. 5 eine in den Verarbeitungseinrichtungen eingesetzte Signalverarbeitungskette; Fig. 5 shows a signal processing chain used in the processing devices;

Fig. 6 strukturelle Details der Verarbeitungseinrichtungen in einer Explosionszeichnung; Fig. 6 structural details of the processing devices in an exploded view;

Fig. 7 die Verarbeitungseinrichtung mit in ihrem Gehäuse aufgenommenen elektronischen Komponenten bzw. Baugruppen und zusätzliche an sie anschließbare Erweiterungsmodule; 7 shows the processing device with electronic components or assemblies accommodated in its housing and additional expansion modules that can be connected to it;

Fig. 8 ein mit Hilfe zweiter Touchbars realisiertes dynamisches Interface der Verarbeitungseinrichtungen; Fig. 8 shows a dynamic interface of the processing devices realized with the help of two touch bars;

Fig. 9 eine typische Trageposition der Verarbeitungseinrichtung am rechten Ohr mit einer Benutzerinteraktion durch einen Finger an einem flächenhaften Interaktionsbereich der Verarbeitungseinrichtung; Fig. 9 shows a typical wearing position of the processing device on the right ear with a user interaction by a finger on a surface interaction area of the processing device;

Fig. 10 die Benutzerinteraktion in einer Zoom-Ansicht; Fig. 10 shows user interaction in a zoom view;

Fig. 11 den flächenhaften Interaktionsbereich mit seinen Endbereichen zugeordneten Profilen für die Steuerung der Signalverarbeitungskette; Fig. 12 eine Bewegung des Fingers entlang des flächenhaften Interaktionsbereiches und die damit einhegenden Veränderung der Werte und Einstellungen für die Signalverarbeitungskette; Fig. 11 the areal interaction area with profiles assigned to its end areas for controlling the signal processing chain; Fig. 12 a movement of the finger along the areal interaction area and the resulting change of the values and settings for the signal processing chain;

Fig. 13 eine im Vergelich zu der Fig. 12 umgekehrte Bewegung und die damit einhergehende Veränderung der Werte bzw. Einstellungen für die Signalverarbeitungskette; 13 shows a reverse movement compared to FIG. 12 and the associated change in the values or settings for the signal processing chain;

Fig. 14 beispielhaft eine interaktionsbedingte Veränderung der bei der Signalverarbeitungskette angewandten Werte und Einstelllungen; 14 shows an example of an interaction-related change in the values and settings used in the signal processing chain;

Fig. 15 bis 20 ein Benutzerinterface einer Smartphone-Applikation zur Konfiguration verschiedenster Einstellungen der Verarbeitungsei nrichtung(en); Fig. 15 to 20 a user interface of a smartphone application for configuring various settings of the processing device(s);

Fig. 21 eine weiter Ausbildungsform des flächenhaften Interaktionsbereich; Fig. 22 eine erste Zweifinger-Benutzerinteraktion und ihre Wirkung; Fig. 21 shows a further embodiment of the areal interaction area; Fig. 22 shows a first two-finger user interaction and its effect;

Fig. 23 eine zweite Zweifinger-Benutzerinteraktion und ihre Wirkung; Fig. 24 eine Visualisierung des Mischens von zwei Profilen für eine Audiosignalverarbeitung; Fig. 23 a second two-finger user interaction and its effect; Fig. 24 a visualization of the mixing of two profiles for audio signal processing;

Fig. 25 ein Einfluss einer Fingerposition auf einem Touchbar auf die Profilmischung; Fig. 25 an influence of a finger position on a touch bar on the profile mixture;

Fig. 26 eine Auswirkung der Mischung anhand von zwei Profilen mit jeweils drei Audio- Effekten; Fig. 26 shows an effect of the mix based on two profiles, each with three audio effects;

Fig. 27 eine beispielhafte Parametersammlung eines Profils; Fig. 27 an exemplary parameter collection of a profile;

Fig. 28 eine Individualisierung eines Profils mit Hilfe eines Smartphones. Fig. 28 shows an individualization of a profile using a smartphone.

Beschreibung der Ausführungsbeispiele Description of the exemplary embodiments

Die Figur 1 zeigt einen Kopf 101 einer Person 100, die ein binaurales Hörgeräte-System 1, nachfolgend kurz System 1 genannt, trägt, das eine erste am linken Ohr 102 getragene Verarbeitungseinrichtung 2 und eine zweite am rechten Ohr 103 getragene Verarbeitungseinrichtung 3 aufweist, um der Person 100 ein verbessertes, insbesondere natürliches Hörerlebnis mit beiden Ohren 102, 103 zu ermöglichen. Die Bezeichnungen vorne V, hinten H, links L, und rechts R entsprechen hierbei der natürlichen Richtungsangabe in Bezug auf den Kopf 101 der (stehenden oder sitzenden) Person 100, sodass das Gesicht nach vorne V, das linke Ohr 102 nach links L und das rechte Ohr 103 nach rechts R ausgerichtet ist. Gleiches gilt für die üblichen Richtungsangaben oben O und unten U. Zwischen den Verarbeitungseinrichtungen 2 und 3 ist auch eine Funkverbindung angedeutet, worauf nachfolgend noch im Detail eingegangen ist. 1 shows a head 101 of a person 100 who is wearing a binaural hearing aid system 1, hereinafter referred to as system 1, which has a first processing device 2 worn on the left ear 102 and a second processing device 3 worn on the right ear 103 to enable the person 100 to have an improved, in particular natural, hearing experience with both ears 102, 103. The designations front V, back H, left L, and right R correspond to the natural direction information in relation to the head 101 of the (standing or sitting) person 100, so that the face faces forward V, the left ear 102 faces left L and that right ear 103 is aligned to right R. The same applies to the usual directions above O and below U. Between them Processing devices 2 and 3 also indicate a radio connection, which will be discussed in detail below.

Die Figur 2 zeigt die vier Richtungen V, H, R und L bezogen auf den Kopf 101 der Person 100, der von oben betrachtet wird, wobei das Gesicht der Person 100 nach vorne V blickt, was der Gradangabe 90° entspricht. Die Gradangabe ist in der horizontalen Ebene angegeben, die im Wesentlichen auf Höhe der Ohren 102, 103 positioniert ist. Der Kopf 101 ist hierbei umfangsseitig angedeutet und mit einem Kreuz 200 gekennzeichnet, wobei der längste Abschnitt des Kreuzes 201 vom Zentrum des Kopfes 101 zur Nase hin orientiert ist. Dies ist an dieser Stelle erwähnt, weil diese Art der Darstellung auch in den nachfolgenden Figuren zur Anwendung kommt. Figure 2 shows the four directions V, H, R and L based on the head 101 of the person 100, which is viewed from above, with the face of the person 100 looking forward V, which corresponds to the degree 90°. The degree is given in the horizontal plane, which is positioned essentially at the level of the ears 102, 103. The head 101 is indicated on the circumference and marked with a cross 200, the longest section of the cross 201 being oriented from the center of the head 101 towards the nose. This is mentioned at this point because this type of representation is also used in the following figures.

Jede der in der Figur 1 dargestellten Verarbeitungseinrichtungen 2 und 3 weist jeweils zwei Mikrofone 10 und 11 bzw. 12 und 13 (nicht eingezeichnet, siehe jedoch z.B. Figur 3 und 4) auf, sodass eine Schallerfassung in alle vier Richtungen V, H, L und R möglich ist, wie dies in der Figur 2 gezeigt ist. Die in der Figur 2 ersichtlichen Haupterfassungsrichtungen der vier Mikrofone 10-13 sind hier durch die Richtungsangaben „links-vorne" LV, „rechts-vorne" RV, „links-hinten" LH und „rechts-hinten" RH angedeutet. Each of the processing devices 2 and 3 shown in Figure 1 has two microphones 10 and 11 or 12 and 13 (not shown, but see e.g. Figures 3 and 4), so that sound can be recorded in all four directions V, H, L and R, as shown in Figure 2. The main recording directions of the four microphones 10-13 shown in Figure 2 are indicated here by the direction information "left-front" LV, "right-front" RV, "left-back" LH and "right-back" RH.

Die in der Figur 3 ersichtlichen Richtcharakteristiken LVC, LHC, RVC und RHC der Mikrofone 10-13 erstrecken sind (dreidimensional) nierenförmig im Wesentlichen symmetrisch um diese Haupterfassungsrichtungen LV, RV, LH, RH. Die Richtcharakteristiken LVC, LHC, RVC und RHC werden hierbei durch die Art des Mikrofons 10-13 sowie der Positionierung bzw. Orientierung des Mikrofons 10-13 definiert. Die Richtcharakteristiken LVC, LHC, RVC und RHC decken im Wesentlichen die gesamte Umgebung um den Kopf 101 der Person 100 ab und erlauben so eine rundum Erfassung des auf den Kopf 101 eintreffenden Schalls. Erwähnt sein an dieser Stelle lediglich, dass die Mikrofone 10 - 13 losgelöst vom Kopf 101 dargestellt sind, um sie überhaupt sichtbar zu machen. Tatsächlich sind sie in den Verarbeitungseinrichtungen 2 und 3 integriert, was den Figuren 4, 6, 7, 8 zu entnehmen ist. The directional characteristics LVC, LHC, RVC and RHC of the microphones 10-13 shown in Figure 3 are (three-dimensionally) kidney-shaped and essentially symmetrical about these main detection directions LV, RV, LH, RH. The directional characteristics LVC, LHC, RVC and RHC are defined by the type of microphone 10-13 and the positioning or orientation of the microphone 10-13. The directional characteristics LVC, LHC, RVC and RHC essentially cover the entire area around the head 101 of the person 100 and thus allow all-round detection of the sound hitting the head 101. It should only be mentioned at this point that the microphones 10-13 are shown detached from the head 101 in order to make them visible at all. In fact, they are integrated in the processing devices 2 and 3, which can be seen in Figures 4, 6, 7, 8.

In der Figur 4 sind die beiden Verarbeitungseinrichtungen 2 und 3 in weiterer Folge anhand von einem Blockschaltbild erörtert. Die beiden Verarbeitungseinrichtungen 2 und 3 sind batteriebetrieben und weisen daher jeweils eine wiederaufladbare Batterie 25 auf, die eine Versorgungsspannung VCC gegenüber einem Bezugspotential GND bereitstellt. In Figure 4, the two processing devices 2 and 3 are discussed below using a block diagram. The two processing devices 2 and 3 are battery-operated and therefore have each have a rechargeable battery 25 which provides a supply voltage VCC relative to a reference potential GND.

Die erste Verarbeitungseinrichtung 2 weist eine erste Verarbeitungsstufe 4 auf. Die Verarbeitungsstufe 4 ist mit einem ersten Bluetooth-Funkmodul 6, kurz erstes Funkmodul 6, und einem vierten Bluetooth-Funkmodul 9, kurz viertes Funkmodul 9, über jeweils eine UART- Verbindung 17 zur Einstellung bzw. Programmierung der Funkmodule 6 bzw. 9 und über jeweils eine I2S-Verbindung 18 zur separaten Übertragung von Audiodaten verbunden. The first processing device 2 has a first processing stage 4. The processing stage 4 is connected to a first Bluetooth radio module 6, in short first radio module 6, and a fourth Bluetooth radio module 9, in short fourth radio module 9, via a UART connection 17 for setting or programming the radio modules 6 and 9, respectively, and via an I 2 S connection 18 for the separate transmission of audio data.

Unter der Abkürzung UART versteht der Fachmann einen „Universal Asynchronous Receiver Transmitter". Unter der Abkürzung I2S versteht der Fachmann eine serielle von Phillips entwickelte Schnittstelle für die Audio- Übertragung, die auch unter dem Begriff „Inter-IC Sound" bekannt ist. Under the abbreviation UART, the expert understands a “Universal Asynchronous Receiver Transmitter”. Under the abbreviation I 2 S, the expert understands a serial interface for audio transmission developed by Phillips, which is also known under the term “Inter-IC Sound”.

Das erste Funkmodul 6 ist leitungsgebunden (in diesem Ausführungsbeispiel über seine Analog-Mikrofonsignal-Eingänge) mit einem ersten Mikrofon 10 und einem zweiten Mikrofon 11 verbunden. Mit dem ersten Mikrofon 10 und dem zweiten Mikrofon 11 wird jeweils ein individuelles Mikrofonsignal MSI bzw. MS2 generiert. Die beiden Mikrofonsignale MSI und MS2 bilden zusammen eine erste Gruppe Gl an Mikrofonsignalen. Die bei dem ersten Funkmodul 6 einlangenden Mikrofonsignale MSI und MS2 werden mit Hilfe des ersten Funkmoduls 6 für die weitere Verarbeitung digitalisiert. The first radio module 6 is connected by wire (in this exemplary embodiment via its analog microphone signal inputs) to a first microphone 10 and a second microphone 11. An individual microphone signal MSI or MS2 is generated with the first microphone 10 and the second microphone 11. The two microphone signals MSI and MS2 together form a first group Gl of microphone signals. The microphone signals MSI and MS2 arriving at the first radio module 6 are digitized for further processing using the first radio module 6.

Die zweite Verarbeitungseinrichtung 3 weist eine zweite Verarbeitungsstufe 5 auf. Die zweite Verarbeitungsstufe 5 ist mit einem dritten Bluetooth-Funkmodul 8, kurz drittes Funkmodul 8, und einem zweiten Bluetooth-Funkmodul 7, kurz zweites Funkmodul 7, über jeweils eine UART- Verbindung 17 zur Einstellung bzw. Programmierung der Funkmodule 6 bzw. 9 und über jeweils eine I2S-Verbindung 18 zur separaten Übertragung von Audiodaten verbunden. The second processing device 3 has a second processing stage 5. The second processing stage 5 is with a third Bluetooth radio module 8, short third radio module 8, and a second Bluetooth radio module 7, short second radio module 7, each via a UART connection 17 for setting or programming the radio modules 6 and 9 and each connected via an I 2 S connection 18 for the separate transmission of audio data.

Das dritte Funkmodul 8 ist leitungsgebunden (in diesem Ausführungsbeispiel über seine Analog-Mikrofonsignal-Eingänge) mit einem dritten Mikrofon 12 und einem vierten Mikrofon 13 verbunden. Mit dem dritten Mikrofon 12 und dem vierten Mikrofon 13 wird jeweils ein individuelles Mikrofonsignal MS3 bzw. MS4 generiert. Die beiden Mikrofonsignale MS3 und MS4 bilden zusammen eine zweite Gruppe G2 an Mikrofonsignalen. Die bei dem dritte Funkmodul 8 einlangenden Mikrofonsignale MS3 und MS4 werden mit Hilfe des dritten Funkmoduls 8 für die weitere Verarbeitung digitalisiert. The third radio module 8 is connected via a cable (in this embodiment via its analog microphone signal inputs) to a third microphone 12 and a fourth microphone 13. The third microphone 12 and the fourth microphone 13 each generate an individual microphone signal MS3 or MS4. The two microphone signals MS3 and MS4 together form a second group G2 of microphone signals. The The microphone signals MS3 and MS4 arriving at the third radio module 8 are digitized for further processing using the third radio module 8.

An dieser Stelle sei erwähnt, dass die jeweilige Gruppe Gl bzw. G2 der Mikrofonsignale auch bereits als digitalisierter Audio-Datenstrom den Funkmodulen 6 bzw. 7 zugeführt werden kann, wenn entsprechen ausgebildet Mikrofone zum Einsatz kommen, die eine solche Erstellung des Audi- Datenstroms unterstützen. At this point it should be mentioned that the respective group Gl or G2 of the microphone signals can also be fed to the radio modules 6 or 7 as a digitized audio data stream if appropriately designed microphones are used which support such a creation of the audio data stream.

Jedes der Funkmodule 6 bis 9 weist eine Antennenkonfiguration 14 und die übliche Transceiver-Elektronik (nicht im Detail dargestellt) zur Bluetooth-Funkkommunikation auf. Each of the radio modules 6 to 9 has an antenna configuration 14 and the usual transceiver electronics (not shown in detail) for Bluetooth radio communication.

Im Betrieb ist zwischen dem ersten Funkmodul 6 und dem zweiten Funkmodul 7 eine erste Funkverbindung 15 aufgebaut und es wird von dem ersten Funkmodul 6 die erste Gruppe Gl der Mikrofonsignale an das zweite Funkmodul 7 übermittelt. Für diese Funksignalübertragung ist das erste Funkmodul 6 ausschließlich als Sender und das zweite Funkmodul 7 ausschließlich als Empfänger in Verwendung. During operation, a first radio connection 15 is established between the first radio module 6 and the second radio module 7 and the first group G1 of the microphone signals is transmitted from the first radio module 6 to the second radio module 7. For this radio signal transmission, the first radio module 6 is used exclusively as a transmitter and the second radio module 7 is used exclusively as a receiver.

Im Betrieb ist weiters zwischen dem dritten Funkmodul 8 und dem vierten Funkmodul 9 eine zweite Funkverbindung 16 aufgebaut und es wird von dem dritten Funkmodul 8 die zweite Gruppe G2 der Mikrofonsignale an das vierte Funkmodul 9 übermittelt. Für diese Funksignalübertragung ist das dritte Funkmodul 8 ausschließlich als Sender und das vierte Funkmodul 9 ausschließlich als Empfänger in Verwendung. During operation, a second radio connection 16 is also established between the third radio module 8 and the fourth radio module 9, and the second group G2 of microphone signals is transmitted from the third radio module 8 to the fourth radio module 9. For this radio signal transmission, the third radio module 8 is used exclusively as a transmitter and the fourth radio module 9 is used exclusively as a receiver.

Weiters werden in dieser Betriebskonfiguration Audiodaten, welche die erste Gruppe Gl der Mikrofonsignale repräsentieren, von dem ersten Funkmodul 6 und Audiodaten, welche die zweite Gruppe G2 der Mikrofonsignale repräsentieren, von dem vierten Funkmodul 9 jeweils über die separaten I2S-Verbindungen 18 an die erste Verarbeitungsstufe 4 übertragen. Weiterhin werden in dieser Betriebskonfiguration Audiodaten, welche die erste Gruppe Gl der Mikrofonsignale repräsentieren, von dem zweiten Funkmodul 7 und Audiodaten, welche die zweite Gruppe G2 der Mikrofonsignale repräsentieren, von dem dritten Funkmodul 8 jeweils über die separaten I2S-Verbindungen 18 an die zweite Verarbeitungsstufe 5 übertragen. Somit stehen sowohl bei der ersten Verarbeitungseinrichtung 2 wie auch bei der zweiten Verarbeitungseinrichtung 3 beide Gruppen Gl und G2 der Mikrofonsignale, also alle Mikrofonsignale MSI bis MS4, für die weitere Signalverarbeitung zur Verfügung, wobei die individuelle, unidirektionale Übertragung über zwei separate Funkverbindungen 15 und 16 - sowie dies im allgemeinen Teil der Beschreibung erörtert ist - die Grundlage für die weitere phasensynchrone Signalverarbeitung aller Mikrofonsignale MSI bis MS4 in jeder der Verarbeitungseinrichtungen 2 und 3 in Echtzeit bildet. Furthermore, in this operating configuration, audio data representing the first group Gl of the microphone signals are transmitted from the first radio module 6 and audio data representing the second group G2 of the microphone signals are transmitted from the fourth radio module 9, each via the separate I 2 S connections 18, to the first processing stage 4. Furthermore, in this operating configuration, audio data representing the first group Gl of the microphone signals are transmitted from the second radio module 7 and audio data representing the second group G2 of the microphone signals are transmitted from the third radio module 8, each via the separate I 2 S connections 18, to the second processing stage 5. Thus, both the first processing device 2 and the second processing device 3 have both groups Gl and G2 of the microphone signals, i.e. all microphone signals MSI to MS4, available for further Signal processing is available, whereby the individual, unidirectional transmission via two separate radio links 15 and 16 - as discussed in the general part of the description - forms the basis for the further phase-synchronous signal processing of all microphone signals MSI to MS4 in each of the processing devices 2 and 3 in real time.

In diesem Ausführungsbeispiel sind die vier Funkmodule 6 bis 9 jeweils durch einen Bauteil der Firma „MICROCHIP" mit der Bezeichnung „BM83 Bluetooth® Stereo Audio Modul" realisiert. Die beiden Verarbeitungsstufen 4 und 5 sind in diesem Ausführungsbeispiel durch einen Bauteil der Firma „NXP Semiconductors" mit der Bezeichnung „i.MX RT1160" realisiert. Auf eine Erörterung von gegebenenfalls weiteren (analogen) Bauteilen, die im Kontext der erwähnten digitalen Bauteile vorzusehen sind, ist aus Gründen der Übersichtlichkeit verzichtet. Der Fachmann kann dies den einschlägigen Datenblättern entnehmen. In this exemplary embodiment, the four radio modules 6 to 9 are each implemented by a component from “MICROCHIP” called “BM83 Bluetooth® Stereo Audio Module”. The two processing stages 4 and 5 are implemented in this exemplary embodiment by a component from “NXP Semiconductors” called “i.MX RT1160”. For reasons of clarity, a discussion of any additional (analog) components that are to be provided in the context of the digital components mentioned is omitted. The expert can find this out from the relevant data sheets.

Jede der Verarbeitungseinrichtungen 2 und 3 weist ein Gyroskop 21a bzw. 21b auf, mit dem Lagedaten LD generiert werden, welche die Lage bzw. die Veränderung der Lage der jeweiligen Verarbeitungseinrichtungen 2 bzw. 3 repräsentieren. Jede der Verarbeitungsstufen 4 und 5 ist mit dem jeweiligen Gyroskop 21a bzw. 21b verbunden und berücksichtigt die jeweiligen Lagedaten LD bei der weiteren Verarbeitung der beiden Gruppen Gl und G2 der Mikrofonsignale, sodass Lageänderungen in dieser weiteren Verarbeitung kompensiert werden können. Each of the processing devices 2 and 3 has a gyroscope 21a and 21b, respectively, with which position data LD are generated, which represent the position or the change in the position of the respective processing devices 2 and 3, respectively. Each of the processing stages 4 and 5 is connected to the respective gyroscope 21a and 21b and takes the respective position data LD into account during the further processing of the two groups G1 and G2 of the microphone signals, so that position changes can be compensated for in this further processing.

Jede der Verarbeitungseinrichtungen 2 und 3 weist weiterhin ein berührungssensitives Eingabemodul 20 auf, das sich einerseits in einen ersten Eingabemodul-Controller 19a (realisiert mit Hilfe eines Microcontrollers) und einen daran angeschlossenen ersten sogenannten „Touchstrip" 20a und andererseits in einen zweiten Eingabemodul-Controller 19b (ebenfalls realisiert mit Hilfe eines Microcontrollers) und einen daran angeschlossenen zweiten Touchstrip 20b gliedert. Die beiden Touchstrips 20a und 20b bilden äußere Ausprägungen zweier Touchbars, die jeweils eine berührungssensitive Oberfläche aufweisen. Das Eingabemodul 20 kann wahlfrei belegbare Zonen auf den Touchstrips 20a bzw. 20b definieren und so die dort zur Verfügung stehende Fläche in Menüpunkte gliedern, beispielsweise in eine obere und untere Hälfte, sodass mittels Finger-Berührung die den Menüpunkten zugeordneten Funktionen auslösbar sind. Die Zuordnung der Menüpunkte zu den Zonen kann vorgegeben sein, sich je nach Betriebszustand verändert werden bzw. angepasst werden oder über eine externe App konfiguriert werden. Die jeweilige Verarbeitungsstufe 4 und 5 ist mit dem jeweiligen Eingabemodul 20 verbunden. Das Eingabemodul 20 ist dazu ausgebildet auf kapazitive Weise die Position eines Fingers der Person 100 auf dem jeweiligen Touchstrip 20a bzw.20b zu erfasse und mittels des jeweiligen Berührungsmodul-Controllers 19a bzw. 19b zu interpretieren und Interaktionsdaten ID zu generieren und für die jeweilige Verarbeitungsstufe 4 bzw. 5 bereitzustellen, wo diese Interaktionsdaten ID gemäß der gerade gültigen Menübelegung des jeweiligen Touchstrips 20a und 20b verarbeitet werden. Mit Hilfe dieser Menübelegung lassen sich z.B. auf dem Touchstrip 20a und 20b Bereiche definieren, die zur direkten Aktivierung von Profilen dienen, oder auch Bereiche definieren, die zur Steuerung der Lautstärke dienen, oder Bereiche definieren, die zur Ausrichtung von einem virtuellen Mikrofon dienen, usw. Weiterhin sei an dieser Stelle erwähnt, dass auch mittels einer externen Interaktionsquelle, wie z.B. einem Smartphone, einem Tabletcomputer oder auch einer cloudbasierten Softwarelösung die Interaktionsdaten ID generierbar sind und mittels einer Funkverbindung an eine der Verarbeitungseinrichtungen 2 oder 3 oder an beide Verarbeitungseinrichtungen 2 und 3 übermittelt werden, um sie dort für die weitere Verarbeitung zu nutzen. Each of the processing devices 2 and 3 further comprises a touch-sensitive input module 20, which is divided into a first input module controller 19a (implemented with the aid of a microcontroller) and a first so-called "touch strip" 20a connected to it, and a second input module controller 19b (also implemented with the aid of a microcontroller) and a second touch strip 20b connected to it. The two touch strips 20a and 20b form external features of two touch bars, each of which has a touch-sensitive surface. The input module 20 can define freely assignable zones on the touch strips 20a and 20b and thus divide the area available there into menu items, for example into an upper and lower half, so that the functions assigned to the menu items can be triggered by touching with a finger. The assignment of the menu items to the zones can be predefined, changed or adapted depending on the operating state, or configured via an external app. The respective processing levels 4 and 5 are connected to the respective input module 20. The input module 20 is designed to capacitively detect the position of a finger of the person 100 on the respective touch strip 20a or 20b and to interpret it using the respective touch module controller 19a or 19b and to generate interaction data ID and to provide it for the respective processing levels 4 or 5, where this interaction data ID is processed according to the currently valid menu assignment of the respective touch strip 20a and 20b. With the help of this menu assignment, for example, areas can be defined on the touch strip 20a and 20b that are used to directly activate profiles, or areas can be defined that are used to control the volume, or areas can be defined that are used to align a virtual microphone, etc. It should also be mentioned at this point that the interaction data ID can also be generated by means of an external interaction source, such as a smartphone, a tablet computer or a cloud-based software solution, and transmitted via a radio connection to one of the processing devices 2 or 3 or to both processing devices 2 and 3 in order to use them there for further processing.

Die Interaktionsdaten ID sowie auch die Lagedaten LD können gemeinsam mit den Mikrofonsignalen MSI und MS2 bzw. MS3 und MS4 über die entsprechenden Funk-Verbindungen 15 und 16 an die jeweils andere Verarbeitungseinrichtung 2 bzw. 3 übermittelt werden, damit beide Verarbeitungseinrichtungen 2 und 3 synchron zueinander betrieben werden können oder einfach nur gegenseitig über die jeweilige Interaktion bzw. Lage informiert sind. The interaction data ID as well as the position data LD can be transmitted together with the microphone signals MSI and MS2 or MS3 and MS4 via the corresponding radio connections 15 and 16 to the other processing device 2 or 3, so that both processing devices 2 and 3 are synchronous with one another can be operated or simply keep each other informed about the respective interaction or situation.

Die beiden Verarbeitungseinrichtungen 2 und 3 weisen jeweils eine Visuell-Signalisierungsstufe 26 auf, die im Wesentlichen durch jeweils eine LED gebildet ist, die von dem jeweiligen Funkmodul 6 bzw. 8, mit dem sie verbunden ist, angesteuert wird. Die Visuell-Signalisierungsstufe 26 dient z.B. der Anzeige einer Übertragungsaktivität oder auch der Anzeige eines Ladezustands der Batterie 25 der jeweiligen Verarbeitungseinrichtung 2 bzw. 3. Weiterhin weist jede der Verarbeitungseinrichtungen 2 und 3 ein Ausgabemodul 22 auf, das sich in einen Verstärker 22a bzw. 22b und einen damit gekoppelten Lautsprecher 23a bzw. 23b gliedert. Bei den Verstärkern 22a, 22b handelt es sich um eine I2C-Class-D-Amplifier, der über eine I2C- Verbdinung mit der jeweiligen Verarbeitungsstufe 4 bzw. 5 verbunden ist und dazu ausgebildet ist, von dort mit digitalen Audiodaten versorgt zu werden und draus ein entsprechend verstärktes Ausgabe-Audiosignal zu generieren, mit dem der Lautsprecher 22a bzw. 22b angesteuert wird. The two processing devices 2 and 3 each have a visual signaling stage 26, which is essentially formed by an LED that is controlled by the respective radio module 6 or 8 to which it is connected. The visual signaling stage 26 serves, for example, to display a transmission activity or to display a charge status of the battery 25 of the respective processing device 2 or 3. Furthermore, each of the processing devices 2 and 3 has an output module 22, which is divided into an amplifier 22a or 22b and a loudspeaker 23a or 23b coupled thereto. The amplifiers 22a, 22b are an I2C Class D amplifier which is connected to the respective processing stage 4 or 5 via an I 2 C connection and is designed to be supplied with digital audio data from there and from this to generate a correspondingly amplified output audio signal with which the loudspeaker 22a or 22b is controlled.

Weiterhin weist jede der Verarbeitungseinrichtungen 2 und 3 eine Wechsel-Speichermedium-Lese/Schreib-Stufe 24 auf, mit deren Hilfe ein Wechselspeichermedium mit Daten beschreibbar ist oder Daten von dem Wechselspeichermedium auslesbar sind. Dabei kann es sich um Einstellungs- Daten, Benutzer-Daten, Audio-Daten oder auch Applikations-Daten usw. handeln, die dem System bzw. der jeweiligen Verarbeitungseinrichtung 2 oder 3 zugänglich gemacht werden oder von dort abgerufen werden. Auch kann damit eine Speichererweiterung für rechen- bzw. datenintensive Verarbeitungsaktivitäten bereitgestellt werden. Damit können auch ausführbare Applikationen auf physischem Weg, ggf. sogar verschlüsselt, in dem System 1 bereitgestellt werden. Furthermore, each of the processing devices 2 and 3 has a removable storage medium read/write stage 24, with the aid of which a removable storage medium can be written with data or data can be read from the removable storage medium. This can be setting data, user data, audio data or even application data, etc., which are made accessible to the system or the respective processing device 2 or 3 or are retrieved from there. This can also provide a memory extension for processing activities that require a lot of computing or data. This also allows executable applications to be made available in the system 1 in a physical way, possibly even encrypted.

Die Bezugszeichen 27 bis 29 sind nicht verwendet. The reference numerals 27 to 29 are not used.

Nachfolgend ist mit Hilfe der Figur 5 auf die in jeder der Verarbeitungseinrichtungen 2 und 3 mit Hilfe der Verarbeitungsstufen 4 und 5 zur Anwendung kommende Signalverarbeitungskette 30 eingegangen. Below, with the help of Figure 5, the signal processing chain 30 used in each of the processing devices 2 and 3 with the help of the processing stages 4 and 5 will be discussed.

In dieser Signalverarbeitungskette 30 werden eingangsseitig die zwei Gruppen Gl und G2 der Mikrofonsignale MSI - MS4 in eine ersten Signalverarbeitungsstufe 31 eingespeist. In der ersten Signalverarbeitungsstufe 31 sind alle Funktion zur ambisonics-bezogenen Signalverarbeitung unter Einbeziehung bzw. Berücksichtigung der Lagedaten LD und/oder der Interaktionsdaten ID, welche die ambisonics-bezogenen Signalverarbeitung betreffen, zusammengefasst. Hier wird z.B. ein gemäß dem Ambisonics-Format strukturierter Audiodatenstrom erzeugt, die Lagedaten LD des Gyroskops 21a bzw. 21b berücksichtigt, ein oder mehrere virtuelle Mikrofone definiert bzw. gesteuert, usw. Mit dieser Funktionalität generiert die erste Signalverarbeitungsstufe 31 aus den vier Mikrofonsignalen MS1-MS4 einen ersten Audiodatenstrom ADI, der in eine zweite Signalverarbeitungsstufe 32 eingespeist wird. In this signal processing chain 30, the two groups Gl and G2 of the microphone signals MSI - MS4 are fed into a first signal processing stage 31 on the input side. In the first signal processing stage 31, all functions for ambisonics-related signal processing are combined, taking into account the position data LD and/or the interaction data ID that relate to the ambisonics-related signal processing. Here, for example, an audio data stream structured according to the Ambisonics format is generated, the position data LD of the gyroscope 21a or 21b is taken into account, one or more virtual microphones are defined or controlled, etc. With this functionality, the first signal processing stage 31 generates from the four microphone signals MS1-MS4 a first audio data stream ADI, which is fed into a second signal processing stage 32.

In der zweiten Signalverarbeitungsstufe 32 sind alle Funktionen zur hörkurvenanpassungs-bezogenen Signalverarbeitung unter Einbeziehung bzw. Berücksichtigung der Interaktionsdaten ID, welche die Hörkurvenanpassung betreffen, zusammengefasst. Eine Hörkurvenanpassung bewirkt, dass die Hörkurve eines beeinträchtigten Ohrs dahingehend korrigiert wird, dass sie an ein gesundes Ohr angenähert wird. Hierbei kommt im Wesentlichen ein statischer Equalizer zum Einsatz. Mit dieser Funktionalität generiert die zweite Signalverarbeitungsstufe 32 aus dem ersten Audiodatenstrom ADI einen zweiten Audiodatenstrom AD2, der in eine dritte Signalverarbeitungsstufe 33 eingespeist wird. In the second signal processing stage 32, all functions for hearing curve adaptation-related signal processing are summarized, including or taking into account the interaction data ID, which relate to the hearing curve adaptation. A hearing curve adjustment works by correcting the hearing curve of an impaired ear to approximate that of a healthy ear. This essentially uses a static equalizer. With this functionality, the second signal processing stage 32 generates a second audio data stream AD2 from the first audio data stream ADI, which is fed into a third signal processing stage 33.

In der dritten Signalverarbeitungsstufe 32 sind alle Funktionen zur hörprofil-bezogenen Signalverarbeitung unter Einbeziehung bzw. Berücksichtigung der Interaktionsdaten ID, welche die Hörprofil-Einstellungen betreffen, zusammengefasst. Unter einem Hörprofil sind jene auf das betreffende Ohr bzw. die betreffende Person abgestimmten Audiosignal- Verarbeitungsparameter zusammengefasst, welche die Verständlichkeit von Sprache, die Teilnahme an einer Gruppendiskussion, das Anhören von Musik, usw. verbessern bzw. positiv beeinflussen. Wird das jeweilige Hörprofil aktiviert, also bei der Signalverarbeitungskette zum Einsatz gebracht, wird die Verständlichkeit von individueller Sprache verbessert, die Teilnahme an einer Gruppendiskussion erleichtert, die naturgetreue Wahrnehmbarkeit von Musik begünstigt usw. Mit dieser Funktionalität generiert die dritte Signalverarbeitungsstufe 32 aus dem zweiten Audiodatenstrom AD2 einen dritten Audiodatenstrom AD3, der in eine vierte Signalverarbeitungsstufe 34 eingespeist wird. In the third signal processing stage 32, all functions for hearing profile-related signal processing are summarized, including or taking into account the interaction data ID, which relate to the hearing profile settings. A hearing profile includes those audio signal processing parameters that are tailored to the ear or person in question and which improve or positively influence the intelligibility of speech, participation in a group discussion, listening to music, etc. If the respective hearing profile is activated, i.e. used in the signal processing chain, the intelligibility of individual speech is improved, participation in a group discussion is made easier, the natural perceptibility of music is promoted, etc. With this functionality, the third signal processing stage generates 32 from the second audio data stream AD2 a third audio data stream AD3, which is fed into a fourth signal processing stage 34.

In der vierten Signalverarbeitungsstufe 34 sind alle Funktionen zur hörgerätefunktion-bezogenen Signalverarbeitung unter Einbeziehung bzw. Berücksichtigung der Interaktionsdaten ID, welche die Hörgerätefunktion- Einstellungen betreffen, zusammengefasst. Hierbei kann es sich beispielsweise um „Quality-Of-Life Improvements" z.B. zusätzliche Störlärmfilterung, Echo/Hallfilterung et cetera handeln. Hier können auch Plugins eingebunden werden, die selbst definiert/heruntergeladen werden können. Mit dieser Funktionalität generiert die vierte Signalverarbeitungsstufe 32 aus dem dritten Audiodatenstrom AD3 einen vierten Audiodatenstrom AD4, der mittels des zuvor erwähnten Ausgabemoduls 22 an das Ohr 102, 103 der das System 1 tragenden Person 35 abgegeben wird. In the fourth signal processing stage 34, all functions for hearing aid function-related signal processing are summarized, including or taking into account the interaction data ID, which relate to the hearing aid function settings. This can be, for example, "Quality-Of-Life Improvements" such as additional noise filtering, echo/reverb filtering, etc. Plugins can also be integrated here that can be defined/downloaded by yourself. The fourth signal processing stage generates this functionality 32 from the third audio data stream AD3 a fourth audio data stream AD4, which is delivered to the ear 102, 103 of the person 35 wearing the system 1 by means of the aforementioned output module 22.

Abschließend ist aus Gründen der Klarheit noch erwähnt, dass die als strukturelle Blöcke dargestellten Signalverarbeitungsstufen 31 bis 34 im Wesentlichen auf Softwaremodulen basieren können, wobei natürlich auch eine auf die jeweilige Funktion optionierte Hardware, ggf. eine programmierbare in Kombination mit Software, zur Anwendung kommen kann. Finally, for reasons of clarity, it should be mentioned that the signal processing stages 31 to 34 shown as structural blocks can essentially be based on software modules, although of course hardware optioned for the respective function, possibly programmable in combination with software, can also be used .

Im Folgenden ist mit Hilfe der Figur 6 die Struktur des physischen Aufbaues der Verarbeitungseinrichtung 2 bzw. 3 erörtert. Die beiden Verarbeitungseinrichtungen 2 und 3 gliedern sich wie folgt. The structure of the physical structure of the processing device 2 or 3 is discussed below with the help of Figure 6. The two processing devices 2 and 3 are structured as follows.

Sie weisen eine Lautsprecherkapsel 36 auf, die für den Einsatz im äußeren Gehörgang ausgelegt ist und den Lautsprecher 23a bzw. 23b in einem Gehäuse aufnimmt. They have a loudspeaker capsule 36 which is designed for use in the external auditory canal and accommodates the loudspeaker 23a or 23b in a housing.

Sie weisen weiters ein erstes flexibel verformbares Verbindungselement 37 auf, das im Wesentlichen aus einem Körper bestehend aus verformbarem Kunststoff, insbesondere aus Polyurethan- Kunststoff oder Silikon, gebildet ist. They also have a first flexibly deformable connecting element 37, which is essentially formed from a body consisting of deformable plastic, in particular polyurethane plastic or silicone.

Sie weisen weiters ein starres erstes Gehäuse 38 auf, das einen ersten berührungssensitiven Teil 39 des ersten Touchstrips 20a zeigt, sodass der berührungssensitive Teil 39 beim Tragen der Verarbeitungseinrichtung 2 bzw. 3 am Kopf seitlich oder nach vorne orientiert oder schräg nach vorne orientiert möglichst ungehindert durch die Ohrmuschel an dem ersten Gehäuseteil zugänglich bzw. berührbar ist. They also have a rigid first housing 38, which shows a first touch-sensitive part 39 of the first touch strip 20a, so that the touch-sensitive part 39 is oriented laterally or forwards or oriented obliquely forwards as unhindered as possible when the processing device 2 or 3 is worn on the head the ear cup is accessible or touchable on the first housing part.

Sie weisen weiters ein zweites flexibel verformbares Verbindungselement 40 auf, das im Wesentlichen aus einem Körper bestehend aus verformbarem Kunststoff, insbesondere aus Polyurethan- Kunststoff oder Silikon, gebildet ist. They also have a second flexibly deformable connecting element 40, which is essentially formed from a body consisting of deformable plastic, in particular polyurethane plastic or silicone.

Sie weisen weiters ein starres zweites Gehäuse 41 auf, das einerseits an die Form der äußeren Ohrmuschel von ihrem vorderen bis hin zu ihrem hinteren Bereich angepasst geformt ist, um zwischen der Ohrmuschel und der Schädeldecke aufgenommen zu werden, und das andererseits so groß ausgelegt ist, dass es abgesehen von dem Lautsprecher 23a bzw. 23b und dem ersten berührungssensitiven Teil 39 der Touchstrips 20a die verbleibenden elektronischen Komponenten der Verarbeitungseinrichtung 2 bzw. 3 aufnimmt. Diese elektronischen Komponenten sind kabelgebunden mit dem ersten berührungssensitiven Teil 39 der Touchstrips 20a und dem Lautsprecher 23a bzw. 23b verbunden, was aus Gründen der Übersichtlichkeit nicht dargestellt ist. They further comprise a rigid second housing 41 which, on the one hand, is shaped to fit the shape of the outer ear from its front to its rear area in order to be accommodated between the ear and the skull, and which, on the other hand, is designed to be large enough to accommodate the loudspeaker 23a or 23b and the first touch-sensitive part 39 of the touch strips 20a. remaining electronic components of the processing device 2 or 3. These electronic components are connected by cable to the first touch-sensitive part 39 of the touch strips 20a and the loudspeaker 23a or 23b, which is not shown for reasons of clarity.

Das zweite Gehäuseteil 41 beinhaltet also jeweils ein Verarbeitungsmodul der entsprechenden Verarbeitungseinrichtung 2 bzw. 3. Das Verarbeitungsmodul weist in dieser Ausführung die jeweilige Verarbeitungsstufe 4 bzw. 5, jeweils die zwei Funkmodule 6 und 9 bzw. 8 und 7, jeweils zwei Mikrofone 10 und 11 bzw. 12 und 13, das jeweilige Gyroskop 21a bzw. 21b sowie die jeweilige Visuell-Signalisierungsstufe (hier nicht dargestellt) auf. Äußerlich sichtbar sind an dem zweiten Gehäuse 41 ein zweiter berührungssensitiven Teil 42 des zweiten Touchstrips 20b, wobei der zweite berührungssensitive Teil 42 vorwiegend zur Lautstärkeneinstellung eingesetzt wird, und ein magnetisch haltender Anschluss 43 bzw. dessen Kontaktfeld, das sechs Kontaktierungselemente zeigt. The second housing part 41 therefore contains a processing module of the corresponding processing device 2 or 3. In this embodiment, the processing module has the respective processing stage 4 or 5, the two radio modules 6 and 9 or 8 and 7, two microphones 10 and 11 or 12 and 13, the respective gyroscope 21a or 21b and the respective visual signaling stage (not shown here). Externally visible on the second housing 41 are a second touch-sensitive part 42 of the second touch strip 20b, the second touch-sensitive part 42 being used primarily for volume adjustment, and a magnetically held connection 43 or its contact field, which shows six contact elements.

Bei der ersten Verarbeitungseinrichtung 2 ist an dem zweiten Gehäuse 41 an seinem vorderen Ende das erste Mikrofon 10 bzw. dessen Schalleinlass-Öffnung(en) vorhanden, was jedoch in der gewählten Perspektive der Figur 6 nicht sichtbar ist. Weiters ist an dem zweiten Gehäuse 41 der ersten Verarbeitungseinrichtung 2 das zweite Mikrofon 11 bzw. dessen Schalleinlass-Öffnung(en) sichtbar. In the first processing device 2, the first microphone 10 or its sound inlet opening(s) is present on the second housing 41 at its front end, although this is not visible in the selected perspective of Figure 6. Furthermore, the second microphone 11 or its sound inlet opening(s) is visible on the second housing 41 of the first processing device 2.

Analog ist bei der zweiten Verarbeitungseinrichtung 3 an dem zweiten Gehäuse 41 an seinem vorderen Ende das dritte Mikrofon 12 bzw. dessen Schalleinlass-Öffnung(en) vorhanden, was jedoch in der gewählten Perspektive der Figur 6 nicht sichtbar ist. Weiters ist an dem zweiten Gehäuse 41 der ersten Verarbeitungseinrichtung 2 das vierte Mikrofon 13 bzw. dessen Schalleinlass-Öffnung(en) sichtbar. Analogously, in the second processing device 3, the third microphone 12 or its sound inlet opening(s) is present on the second housing 41 at its front end, which, however, is not visible in the selected perspective of FIG. Furthermore, the fourth microphone 13 or its sound inlet opening(s) is visible on the second housing 41 of the first processing device 2.

In weiterer Folge ist auf die Figur 7 eingegangen, in der die Verarbeitungseinrichtung 2 bzw. 3 im Unterschied zur Figur 6 zusammengesetzt dargestellt ist. Die Bereiche des starren zweiten Gehäuseteils 41 sind hier bereichsweise transparent bzw. freigeschnitten dargestellt, um den Blick auf darin angeordnete Baugruppen bzw. elektronische Komponenten freizugeben. So sind in dieser Darstellung in einem oberen Bereich 44A die erwähnten integrierten Schaltkreise wie auch analoge Elektronikkomponenten für die Funkmodule 6 und 9 bzw. 8 und 7, für das Eingabemodul 20 und für die Verarbeitungsstufen 4 bzw. 5 angeordnet. In einem hinteren Bereich 44B ist eine elektrische Versorgung, die im vorliegenden Fall mit zwei wiederaufladbaren knopfzellenartigen Batterien 25 realisiert ist, und ein mit Hilfe der jeweiligen Verarbeitungsstufe 4 bzw. 5 ansteuerbare bisher noch nicht dargestelltes Haptik-Modul 45 angeordnet. Figure 7 will be discussed further, in which the processing device 2 or 3 is shown assembled in contrast to Figure 6. The areas of the rigid second housing part 41 are shown here as transparent or cut free in some areas in order to reveal the assemblies or electronic components arranged therein. In this illustration, the integrated circuits mentioned are in an upper area 44A Analog electronic components are arranged for the radio modules 6 and 9 or 8 and 7, for the input module 20 and for the processing stages 4 and 5. In a rear area 44B there is an electrical supply, which in the present case is implemented with two rechargeable button cell-like batteries 25, and a haptic module 45, not yet shown, which can be controlled with the aid of the respective processing stage 4 or 5.

Weiters ist in der Figur 7 ein optionales an dem magnetisch haltenden Anschluss 43 angeschlossenes Erweiterungsmodule 51 dargestellt. In einer nicht abschließenden Aufzählung kann es sich hierbei um folgende Modularten handeln: ein Batterielademodul 46, einen Mikrofonwürfel (nicht dargestellt), einen Klinkenstecker-Adapter 47, einen USB-Adapter 48, ein mit dem System 1 logisch verknüpfbares Funkgerät 49, mit dessen Hilfe Audiooder Einstellungsdaten von einem anderen Gerät, mit dem das Funkgerät 49 dann z.B. per USB-Anschluss verbunden ist, per Funk an das System 1 übertragbar sind oder umgekehrt, eine Mikrofonerweiterung 50, usw. Furthermore, an optional expansion module 51 connected to the magnetically holding connection 43 is shown in FIG. In a non-exhaustive list, these can be the following types of modules: a battery charging module 46, a microphone cube (not shown), a jack plug adapter 47, a USB adapter 48, a radio device 49 that can be logically linked to the system 1, with its help Audio or settings data from another device, to which the radio device 49 is then connected, for example via a USB port, can be transmitted via radio to the system 1 or vice versa, a microphone extension 50, etc.

Die wiederaufladbaren Batterien 25 können somit mittels des Batterielademoduls aufgeladen werden. Auch kann eine Dockingstation vorgesehen sein, in die die beiden Verarbeitungseinrichtungen 2 und 3 mit Hilfe des Anschlusses 43 koppelbar sind, sodass das Laden der Batterien 25 in der Dockingstation passieren kann. The rechargeable batteries 25 can thus be charged using the battery charging module. A docking station can also be provided, into which the two processing devices 2 and 3 can be coupled using the connection 43, so that the batteries 25 can be charged in the docking station.

Grundsätzlich kann das System 1 zur Verarbeitung von Ambisonics gemäß einer höheren Ordnung als dies durch die im System 1 fest installieren Mikrofone 1 bis 13 angedacht ist (im vorliegenden Fall ist dies die erste Ordnung) ausgelegt sein. Dieser Umstand erlaubt es, an den Anschluss 43 weitere Mikrofone anzuschließen und somit die höhere Ordnung zu verwenden, und zwar ohne, dass eine Änderung des Grunddesigns des Systems 1 nötig wäre. In principle, the system 1 can be designed to process Ambisonics according to a higher order than that provided by the microphones 1 to 13 permanently installed in the system 1 (in the present case, this is the first order). This circumstance allows further microphones to be connected to the connection 43 and thus to use the higher order, without any change to the basic design of the system 1 being necessary.

Nachfolgend ist unter Bezugnahme auf die Figur 8 das im System 1 integrierte Userinterface mit einer beispielhaften Menübelegung des ersten berührungssensitiven Teils 39 der Touchbar 20 für beide der Verarbeitungseinrichtungen 2 und 3 und die damit steuerbaren Funktionen des Systems 1 erörtert. Im vorliegenden Fall ist die Menübelegung derart definiert, dass bei der zweiten Verarbeitungseinrichtung 3 die obere Hälfte des ersten berührungssensitiven Teils 39 eine erste Profilzone 53 zur Auswahl eines ersten Profils für die Signalverarbeitungskette 30 definiert und die untere Hälfte des ersten berührungssensitiven Teils 39 eine dritte Profilzone 55 zur Auswahl eines dritten Profils für die Signalverarbeitungskette 30 definiert. Weiterhin ist die Menübelegung derart definiert, dass bei der ersten Verarbeitungseinrichtung 2 die obere Hälfte des ersten berührungssensitiven Teils 39 eine zweite Profilzone 54 zur Auswahl eines zweiten Profils für die Signalverarbeitungskette 30 definiert und die untere Hälfte des ersten berührungssensitiven Teils 39 ebenfalls die dritte Profilzone 55 zur Auswahl des dritten Profils für die Signalverarbeitungskette 30 definiert. Below, with reference to Figure 8, the user interface integrated in the system 1 with an exemplary menu assignment of the first touch-sensitive part 39 of the touch bar 20 for both of the processing devices 2 and 3 and the functions of the system 1 that can be controlled with it are discussed. In the present case, the menu assignment is defined such that in the second processing device 3 the upper half of the first touch-sensitive part 39 defines a first profile zone 53 for selecting a first profile for the signal processing chain 30 and the lower half of the first touch-sensitive part 39 defines a third profile zone 55 for selecting a third profile for the signal processing chain 30. Furthermore, the menu assignment is defined such that in the first processing device 2 the upper half of the first touch-sensitive part 39 defines a second profile zone 54 for selecting a second profile for the signal processing chain 30 and the lower half of the first touch-sensitive part 39 also defines the third profile zone 55 Selection of the third profile for the signal processing chain 30 is defined.

Die drei Profile für die Signalverarbeitungskette 30 fassen die jeweiligen Signalverarbeitungseinstellungen bzw. Signalverarbeitungsparameter zusammen, die je nach aktiviertem Menü bei der Signalverarbeitungskette 30 zum Einsatz kommen sollen. The three profiles for the signal processing chain 30 summarize the respective signal processing settings or signal processing parameters that are to be used in the signal processing chain 30 depending on the activated menu.

Eine Berührung einer der Profilzone 53 - 55 (obere oder untere Hälfte) des betreffenden berührungssensitiven Teils 39 wählt das jeweilige zugehörige Profil aus, um es bei der Signalverarbeitung der Mikrofonsignale MSI - MS4 zur Anwendung zu bringen. Dies geschieht in Echtzeit, während die Person 100 das System 1 trägt und die Signalverarbeitungskette 30 durchlaufen wird. Der Profil Übergang zwischen dem gerade aktiven Profil und dem durch die Berührung der jeweiligen Zone ausgewählten Profils erfolgt dabei bevorzugt fließend, was auch als „faden" bezeichnet wird und geplant eine gewisse Zeit in Anspruch nimmt, wie beispielhaft ein bis drei Sekunden, bevorzugt ca. 2 Sekunden, sodass ein flüssiger Übergang in das ausgewählte und daher zum Einsatz zu bringende Profil geschaffen wird. Abrupte Signalverarbeitungswechsel, die mitunter als störend oder Fehlfunktion interpretiert werden könnten, werden damit zuverlässig vermieden. Touching one of the profile zones 53 - 55 (upper or lower half) of the relevant touch-sensitive part 39 selects the respective associated profile in order to use it in the signal processing of the microphone signals MSI - MS4. This takes place in real time, while the person 100 is wearing the system 1 and the signal processing chain 30 is being run through. The profile transition between the currently active profile and the profile selected by touching the respective zone is preferably smooth, which is also referred to as "fading" and is planned to take a certain amount of time, for example one to three seconds, preferably around 2 seconds, so that a smooth transition to the selected profile and therefore to be used is created. Abrupt signal processing changes, which could sometimes be interpreted as disruptive or a malfunction, are thus reliably avoided.

Die Software des Systems 1, also jeder Verarbeitungseinrichtung 2 bzw. 3, erlaubt jedoch auch eine „Halten und Wischen" Funktionalität, die im Fachjargon als „Wischbewegung" Funktionalität bezeichnet wird, was auf vorteilhafte Weise im Kontext des Systems 1 dazu eingesetzt wird, um Profile miteinander zu mischen. Dabei berührt die Person zunächst eine der Profilzonen 53 - 55, belässt den Finger auf ihr und zieht den Finger dann in die benachbarte Profilzone, bevor der Finger von dem berührungssensitiven Element abgehoben wird. Dies wird softwaremäßig so interpretiert, dass die den beiden durch die Finger überstrichenen Profilzonen zugeordneten Profile zu mischen sind. Wenn beispielsweise bei der rechten, zweiten Verarbeitungseinrichtung 3 mit dem Finger bei dem ersten Profil begonnen wird und nach unten hin zu dem dritten Profil gewischt bzw. gestrichen wird, dann werden die für die Signalverarbeitungskette 30 gemäß dem ersten Profil zutreffenden Signalverarbeitungseinstellungen mit jenen des dritten Profils gemischt. Macht man dasselbe bei der linken, ersten Verarbeitungseinrichtung 2, so mischen sich die Signalverarbeitungseinstellungen des zweiten Profils mit jenen des dritten Profils. Zudem lässt sich der Grad des Mischens (oder in anderen Worten das Mischverhältnis) der beiden zu mischenden Profile durch die Weite der Wischbewegung (defacto zwischen 0 und 100%) einstellen. Beispielhaft sei in diesem Zusammenhang angenommen, dass das erste Profil der Signalverarbeitungskette 30 auf natürliches Gehör (Home-Einstellung) ausgelegt wurde und das dritte Profil der Signalverarbeitungskette 30 als ein Autofokus auf Sprachsignale programmiert wurde, sodass der Beamformer in der ersten Signalverarbeitungsstufe 31 immer einen Sprachvektor wählt und der DSP (DSP steht hier für den englischen Begriff „Digtal Signal Prozessor") der dritten Signalverarbeitungsstufe 33 auf Sprache eingestellt ist. Wenn man nun die erste Profilzone 53 berührt, hält und dann nach unten wischt, so nähert sich das stabile „Home" Profil dem kompromisslosen Sprach-Autofokus an. Vorteilhaft kann jedoch das Mischverhältnis von der Weite der Fingerbewegung gesteuert werden, also in Echtzeit dynamisch angepasst werden. Im Ergebnis wird also ein auf normales Hören optimiertes Audiosignal mit einem auf Sprache optionierten Audiosignal gemäß dem gewählten Mischverhältnis gemischt. However, the software of system 1, i.e. of each processing device 2 or 3, also allows a "hold and swipe" functionality, which is referred to in technical jargon as a "swipe" functionality, which is advantageously used in the context of system 1 to mix profiles with one another. The person first touches one of the profile zones 53 - 55, leaves the finger on it and then drags the finger into the adjacent profile zone before the finger is lifted from the touch-sensitive element. This is interpreted by the software in such a way that the profiles assigned to the two profile zones swept by the fingers are to be mixed. For example, if the right, second If the finger is started on the first profile in the processing device 3 and swiped or stroked downwards to the third profile, then the signal processing settings applicable to the signal processing chain 30 according to the first profile are mixed with those of the third profile. If the same is done on the left, first processing device 2, the signal processing settings of the second profile are mixed with those of the third profile. In addition, the degree of mixing (or in other words the mixing ratio) of the two profiles to be mixed can be adjusted by the width of the swiping movement (defacto between 0 and 100%). As an example, let us assume in this context that the first profile of the signal processing chain 30 was designed for natural hearing (home setting) and the third profile of the signal processing chain 30 was programmed as an autofocus on speech signals, so that the beamformer in the first signal processing stage 31 always selects a speech vector and the DSP (DSP stands for "digital signal processor") of the third signal processing stage 33 is set to speech. If you now touch the first profile zone 53, hold it and then swipe downwards, the stable "home" profile approaches the uncompromising speech autofocus. However, the mixing ratio can advantageously be controlled by the width of the finger movement, i.e. dynamically adjusted in real time. As a result, an audio signal optimized for normal hearing is mixed with an audio signal optioned for speech according to the selected mixing ratio.

Mit Hilfe der „Wischbewegung" Funktionalität kann der Benutzer auch, solange sein Finger auf dem berührungssensitiven Element anliegt, dort jedoch bewegt wird, zwischen den beiden Profilen dynamisch hin und herwechseln bzw. den Mischgrad dynamisch verändern, um z.B. auszuloten, welches Mischverhältnis für ihn am besten passt oder um z.B. bewusst zwischen zwei Mischverhältnissen hin und her zu wechseln, um in kurzen Zeitabständen seine akustische Wahrnehmung gemäß dem ersten Profil oder dem zweiten Profil temporär zu optimieren. Erst wenn er den Finger von dem berührungssensitiven Element abhebt, ist das zu diesem Zeitpunkt eingestellte Mischverhältnis fixiert. Weiters kommt der Benutzer bzw. User, also die das System 1 tragende Person 100, mit einer „swipe" Geste nach oben oder unten, also mit einer das berührungssensitive Element berührenden raschen Streichbewegung des Fingers über die beiden Zonen, stets wieder zurück in den ursprünglichen, stabilen Hörmodus (das „Home" Profil), egal, ob diese „swipe" Geste bei der ersten Verarbeitungseinrichtung 2 oder der zweiten Verarbeitungseinrichtung 3 ausgeführt wird. Using the "swipe" functionality, the user can also dynamically switch back and forth between the two profiles or dynamically change the mixing level as long as his finger is resting on the touch-sensitive element but is being moved there, for example to find out which mixing ratio suits him best or to consciously switch back and forth between two mixing ratios in order to temporarily optimize his acoustic perception according to the first profile or the second profile at short intervals. Only when he lifts his finger from the touch-sensitive element is the mixing ratio set at that time fixed. Furthermore, the user, i.e. the person 100 wearing the system 1, always returns to the original, stable listening mode (the "home" profile) with a "swipe" gesture up or down, i.e. with a quick swipe of the finger across the two zones touching the touch-sensitive element, regardless of whether this "swipe" gesture is carried out on the first processing device 2 or the second processing device 3.

Somit lässt sich auch ohne ein externes Gerät, wie z.B. ein Smartphone oder ein Tabletcomputer usw. eine komplexe Befehlskette einfach steuern, die in jedes Element der Signalverarbeitungskette 30 eingreifen kann, soweit dies nötig ist. This makes it easy to control a complex command chain without an external device, such as a smartphone or a tablet computer, etc., which can intervene in every element of the signal processing chain 30 as necessary.

Somit kann das ganze System 1 auf berührbare Weise steuerbar gemacht werden. Wie erwähnt, ist die Touchbar 20 frei belegbar und kann praktisch sämtliche System parameter, also die Einstellungen der Signalverarbeitungskette 30 steuern. Damit kann der User in Echtzeit in seine Soundrealität eingreifen. Wie erwähnt lassen sich damit auch dynamische Profile generiert werden, wobei die auf die Touchbar 20 gelegten Profile wie erörtert untereinander gemischt werden. Damit lassen sich z.B. komplexe DSP-Funktionen einfach steuern und der User hat das Gefühl, er interagiert mit dem Sound. Das bei bekannten Systemen oft als nachteilig wahrgenommene Gefühl des Users, er würde nur Programme mit einem Plastikknopf wechseln, wird somit völlig vermieden. This means that the entire system 1 can be controlled in a touchable way. As mentioned, the touch bar 20 is freely assignable and can control practically all system parameters, i.e. the settings of the signal processing chain 30. This allows the user to intervene in their sound reality in real time. As mentioned, dynamic profiles can also be generated with it, whereby the profiles placed on the touch bar 20 are mixed with each other as discussed. This makes it easy to control complex DSP functions, for example, and gives the user the feeling that they are interacting with the sound. The feeling of the user, often perceived as a disadvantage with known systems, that they are only changing programs with a plastic button, is thus completely avoided.

Zudem kann sich das Benutzer-Interface, z.B. auch als Folge einer gerade durchgeführten Interaktion oder auf Grund externer Umstände, die z.B. über die Auswertung des eintreffenden Schalls ermittelt wurden, dynamisch an den User anpassen. In addition, the user interface can adapt dynamically to the user, e.g. as a result of an interaction that has just been carried out or due to external circumstances that were determined, for example, through the evaluation of the incoming sound.

Das Benutzer-Interface kann auch kurzzeitig seinen Zustand ändern und dabei z.B. bei einem über ein Smartphone eingehenden Anruf, was dem System 1 über z.B. eine Bluetooth-Verbindung mit dem Smarthone mitgeteilt wird, währen des Klingelns die Funktion eines Anruf-Annahmeknopfs bereitstellen. Die kurzzeitige Änderung kann jedoch auch durch die Auswertung des eintreffenden Schalls bedingt sein, wenn dies auf Grundlage der Auswertung als nötig erscheint. The user interface can also change its state briefly and, for example, provide the function of a call acceptance button when a call is received via a smartphone, which is communicated to System 1 via a Bluetooth connection with the smartphone, for example. However, the short-term change can also be caused by the evaluation of the incoming sound if this appears necessary based on the evaluation.

Ebenso kann eine Zone (z.B. die obere Hälfte) des Touchstrips 20a bzw. 20b z.B. der Funktion „Speech Autofocus" zugeordnet sein. Durch ein Tippen im oberen Bereich des mit diesem Menüpunkt belegten Touchstrips 20a bzw. 20b wird dann ein spezielles Plugin (also eine Softwarekomponente) in den Verarbeitungsstufen 4 und 5 ausgeführt, mit deren Hilfe das Schallfeld auf Sprecher durchsucht wird und eine oder mehrere virtuelle Mikrofone auf diese Schallquellen bzw. Raumbereiche oder Richtungsbereiche, in denen die Schallquellen identifiziert wurden, ausgerichtet werden. Likewise, a zone (eg the upper half) of the touch strip 20a or 20b can be assigned to the "Speech Autofocus" function. Tapping in the upper area of the touch strip 20a or 20b assigned to this menu item then executes a special plug-in (i.e. a software component) in processing stages 4 and 5, with the help of which the sound field is searched for speakers and one or more virtual microphones are aimed at these sound sources or spatial areas or directional areas in which the sound sources were identified.

Analog dazu lässt sich über die Touchbar 20 eine Funktion „einfach- nur-hören" aktivieren. Dies kann ein völlig stabiles Hörprogramm sein, das jedoch an die Hörkurve des Benutzers des Systems 1 angepasst ist und sich daher für ein natürliches Hörempfinden eignet bzw. dazu führt. Bei dieser Funktion würde ein Mix aus omnidirektional und/oder z.B. nierenförmig direktional erfassten Audiosignalen bestehen (Vektor nach vorne, Front of User). Der Mix der individuellen Mikrofonsignal MSI - MS4 wird festgelegt, was durch binaurale (Lokalisations-)Hörtests ermittelt wird. Der Frequenzgang (inkl. Kompressorwerte) ergibt sich aus einem binauralen (Frequenz-)Hörtest. Das Pol ar- Pattern, also die zur Anwendung kommende Richtcharakteristik, wird durch den Mix mehrerer virtueller Mikrofone erzeugt. Dies gilt im Übrigen für alle Programme dieses Systems 1. Der Unterschied hier ist lediglich der, dass der Mix absolut statisch ist. Dass der Mix stabil ist bedeutet, dass im laufenden Betrieb keinerlei Automatismen eingreifen. Die Lokalisierungsfähigkeit wird durch binauralen Mixdown, was im Kontext von Ambisonics bekannt ist, wieder hergestellt. Similarly, a "just listen" function can be activated via the touch bar 20. This can be a completely stable hearing program that is, however, adapted to the hearing curve of the user of System 1 and is therefore suitable for or leads to a natural hearing sensation. This function would consist of a mix of omnidirectional and/or, for example, cardioid directionally recorded audio signals (vector to the front, front of user). The mix of the individual microphone signals MSI - MS4 is determined, which is determined by binaural (localization) hearing tests. The frequency response (including compressor values) results from a binaural (frequency) hearing test. The polar pattern, i.e. the directional characteristic used, is generated by the mix of several virtual microphones. This applies to all programs of this System 1. The only difference here is that the mix is absolutely static. The fact that the mix is stable means that no automatic mechanisms intervene during operation. The localization ability is restored by binaural mixdown, which is known in the context of Ambisonics.

Dieses „einfach-nur-hören" Profil bildet auch die Grundlage aller anderen Profile, mit dem Unterschied, dass andere Profile frei definierbare virtuelle Mikrofone beliebiger Art und Anzahl (limitiert auf Ordnung des Mikrofonarrays 10 - 13; bei dem vorliegenden Ausführungsbeispiel ist es First Order Ambisonics) erstellen können und frei mischen können. Ein Beispiel dafür ist eine auf dem Touchstrip 20a bzw. 20b abrufbare Funktion „Noise- Cancelling" (= Geräuschunterdrückung), welche über ein dynamisches Verhalten verfügt. Bei aktivem „Noise-Cancellation" Profil wird laufend die Umgebung analysiert und Störschall im Schallfeld wird vollautomatisch selektiv entfernt. Diese Funktion sucht und unterdrückt permanente (Störgeräusche, wobei gleichzeitig Musik, zu beachtende Umgebungsgeräusche und Sprache für den User durchgängig wahrnehmbar bleibt. Die Signalverarbeitungskette 30 passt sich also dynamisch an die örtliche und zeitliche Dynamik des Störschalls an. This "just listen" profile also forms the basis of all other profiles, with the difference that other profiles can create and freely mix freely definable virtual microphones of any type and number (limited to the order of the microphone array 10 - 13; in the present embodiment it is First Order Ambisonics). An example of this is a "noise cancelling" function that can be called up on the touch strip 20a or 20b, which has a dynamic behavior. When the "noise cancellation" profile is active, the environment is continuously analyzed and noise in the sound field is selectively removed fully automatically. This function searches for and suppresses permanent (interference) noise, while at the same time music, ambient noise to be observed and speech remain consistently perceptible for the user. The Signal processing chain 30 therefore adapts dynamically to the spatial and temporal dynamics of the noise.

Ganz allgemein ist festzuhalten, dass mit einer steigenden Anzahl von Mikrofonen (und damit Achsen) die Komplexität/Tiefe der Schallfeldabtastung gesteigert werden kann. Damit kann man dann natürlich genauere Berechnungen anstellen (engere Trichter des virtuellen Mikrofones, akkuratere 3D-Felddarstellung im Mixdown, akkuratere Energieverteilungsinformationen / Schalldruckvektoren etc.). Je höher die Ambisonics-Ordnung ist, desto feiner wird die inhaltliche wie auch örtliche Auflösung des Systems 1. Diese Ordnung steigt mit der Anzahl der Mikrofone. Ab einer Anzahl von 4 Mikrofonen pro Gerät, also pro Verarbeitungseinrichtung 2 bzw. 3 (2x4 / 1x8 Matrix) würde jede einzelne Verarbeitungseinrichtung 2 bzw. 3 (also beide Hearables) in die erste Ordnung der sphärischen Harmonik einsteigen. In general, it should be noted that with an increasing number of microphones (and thus axes) the complexity/depth of the sound field scanning can be increased. Of course, you can then make more precise calculations (narrower funnel of the virtual microphone, more accurate 3D field representation in the mixdown, more accurate energy distribution information / sound pressure vectors, etc.). The higher the Ambisonics order, the finer the content and spatial resolution of System 1. This order increases with the number of microphones. From a number of 4 microphones per device, i.e. per processing device 2 or 3 (2x4 / 1x8 matrix), each individual processing device 2 or 3 (i.e. both hearables) would enter the first order of spherical harmonics.

Das Haptik-Modul 45, das auch als ein Feedbackmodul bezeichnet werden kann, gibt dem Benutzer, also der Person, die das System 1 trägt bzw. benutzt, unter den verschiedensten Betriebsbedingungen Feedback, etwa wenn die Touchbar 20 bzw. die jeweiligen Touchstrips 20a bzw. 20b berührt wurden oder das System 1 im laufenden Normalbetrieb etwas mitteilen möchte. Dieses Feedbackmodul dient dazu, unterbrechungsfreie „Notifications", also Mitteilungen, an den Benutzer zu ermöglichen. Das Soundbild, welches durch das System 1 für den Benutzer generiert wird, wird damit etwa bei Lautstärke- oder Programmwechsel usw. nie durch das haptisch wahrnehmbare Feedback gestört, weil somit ein Feedback ohne akustische Unterbrechung oder akustische Überlagerung gegeben ist. The haptic module 45, which can also be referred to as a feedback module, gives the user, i.e. the person who wears or uses the system 1, feedback under a wide variety of operating conditions, for example when the touch bar 20 or the respective touch strips 20 a or 20b were touched or the system 1 wants to communicate something during normal operation. This feedback module serves to enable uninterrupted “notifications”, i.e. messages, to the user. The sound image, which is generated for the user by the system 1, is never disturbed by the tactile feedback when the volume or program changes, etc , because this provides feedback without acoustic interruption or acoustic overlay.

Nachfolgend wird mit Hilfe der weiteren Figuren auf die Bedienung der Vorrichtung 2 bzw. 3 mit Hilfe der durch die Person 100 ausgeführten Bewegungen eingegangen. Ganz allgemein sei nochmals auf den Benutzungskomfort hingewiesen, der sich durch die besondere Position des Touchstrip 20a bzw. 20b entlang der vorderen Begrenzung des Ohrs und seine geradlinige Ausbildung, die sich bei gerader und nach vorne schauender Orientierung des Kopfes 101 in etwa von oben nach unten erstreckt. Dies ist in der Figur 9 mit Hilfe der von schräg rechts hinten dargestellten Person 100 visualisiert, die an ihrem rechten Ohr die zweite Verarbeitungseinrichtung 3 trägt und mit ihrem rechten Zeigefinger 104 den zweiten Touchstripe 20b berührt, um die Signalverarbeitungskette 30 zu beeinflussen. Die Figur 10 zeigt das Detail der Berührung des zweiten Touchstrip 20b mit dem ersten Glied des rechten Zeigefingers 104, um die Größenverhältnisse zu visualisieren. Die nachfolgenden Ausführungen gelten sinngemäß auch für die Bedienung des ersten Touchbars 20a für die am linken Ohr getragene erste Verarbeitungseinrichtung 2, die analog mit dem linken Zeigefinger der linken Hand zu bedienen ist. The operation of the device 2 or 3 using the movements carried out by the person 100 is described below with the help of the other figures. In general, we would like to point out again the ease of use, which is achieved by the special position of the touch strip 20a or 20b along the front edge of the ear and its linear design, which extends approximately from top to bottom when the head 101 is oriented straight and facing forwards. This is visualized in Figure 9 with the help of the person 100 shown diagonally from the back right, who wears the second processing device 3 on his right ear and touches the second touch strip 20b with his right index finger 104. touched in order to influence the signal processing chain 30. Figure 10 shows the detail of the touch of the second touch strip 20b with the first link of the right index finger 104 in order to visualize the size relationships. The following explanations also apply analogously to the operation of the first touch bar 20a for the first processing device 2 worn on the left ear, which is operated analogously with the left index finger of the left hand.

Mit Verweis auf die Figur 11 sei nun angenommen, dass einem ersten Bereich, wie z.B. einem Kopf-Bereich 90, des zweiten Touchbars 20b ein erstes Profil PI und einem zweiten Bereich, wie z.B. einem Fuß-Bereich 91, des ersten Touchbars 20a ein zweites Profil P2 zugeordnet ist. Die Datenstruktur DS der Profile PI und P2 ist identisch aufgebaut, um die in Folge der Benutzerinteraktion zu erfolgende „Mischung" der Werte bzw. Einstellungen der beiden Profile problemlos zu ermöglichen. With reference to Figure 11, it is now assumed that a first area, such as a head area 90, of the second touchbar 20b has a first profile PI and a second area, such as a foot area 91, of the first touchbar 20a has a second one Profile P2 is assigned. The data structure DS of the profiles PI and P2 is constructed identically in order to easily enable the "mixing" of the values or settings of the two profiles as a result of user interaction.

Visualisiert wird diese Datenstruktur DS durch eine erste Matrix Ml und eine zweite Matrix M2 mit „Kästchen", die Datenelemente repräsentieren, wobei hier jedem Kästchen des ersten Profils PI genau ein Kästchen des zweiten Profil P2 zugeordnet ist. Die Spalten fassen hier die für die jeweilige Signalverarbeitungsstufe 31 bis 34 zur Anwendung kommenden Signalverarbeitungsparameter zusammen, wobei für jeden Signalverarbeitungsparameter ein Zeileneintrag zur Speicherung des betreffenden Werts bzw. der betreffenden Einstellung eines Signalverarbeitungsparameters vorgesehen ist. Jene Kästchen, die mit der Zahl „1" gefüllt sind, zeigen an, dass es sich um die Werte bzw. Einstellungen für die jeweiligen Signalverarbeitungsparameter gemäß dem ersten Profil PI handelt. Jene Kästchen, die mit der Zahl „3" gefüllt sind, zeigt an, dass es sich um die Werte bzw. Einstellungen für die Signalverarbeitungsparameter gemäß dem zweiten Profil P2 handelt. This data structure DS is visualized by a first matrix M1 and a second matrix M2 with “boxes” that represent data elements, with each box of the first profile PI being assigned exactly one box of the second profile P2. The columns here contain the ones for the respective one The signal processing parameters used in signal processing stages 31 to 34 come together, with a line entry for storing the relevant value or the relevant setting of a signal processing parameter being provided for each signal processing parameter. Those boxes that are filled with the number “1” indicate that it is these are the values or settings for the respective signal processing parameters according to the first profile PI. Those boxes filled with the number “3” indicate that they are the values or settings for the signal processing parameters according to the second profile P2.

Die Bedienung des Benutzerinterfaces und die damit einhergehende Veränderung der Werte bzw. Einstellungen der Signalverarbeitungsparameter ist in weitere Folge mit Hilfe der Figuren 12 bis 13 visualisiert. The operation of the user interface and the associated changes to the values or settings of the signal processing parameters are further visualized using Figures 12 to 13.

Die Figur 12 zeigt mit drei Abbildungen entlang der Zeitachse t einen zeitlichen Bewegungsablauf während der Bedingung des Benutzerinterfaces, wobei der Finger 104 zunächst in dem Kopf-Bereich 90 aufgesetzt wird und in weitere Folge bis zu dem Fuß-Bereich 91 bewegt wird, währen der Finger mit dem Touchstrip 20b in Kontakt bleibt. Zwischen dem Kopf-Bereich 90 und dem Fuß-Bereich 91 befindet sich der Finger 104 in einer Zwischenposition, so wie dies in der mittleren Abbildung dargestellt ist. Erst bei Erreichen des Fuß-Bereichs 91 wird der Finger 104 von dem Touchstrip 20b abgehoben. Diese Sequenz der Fingerbewegung - also das initiale Aufsetzen des Fingers auf den Touchstrip 20b im Kopf-Bereich 90 und die Bewegung entlang des Touchstrips 20b und das finale Abheben des Fingers von dem Touchstrip 20b im Fuß-Bereich 91 - wird von dem Eingabemodul- Controller 19a fortwährend digital erfasst und mit Hilfe der Interaktionsdaten ID repräsentiert, die von der zweiten Verarbeitungsstufe 5 verarbeitet werden. Die Interaktionsdaten ID beschreiben die erfasste Bewegung als Fingers 104 als eine „Halten und Wischen" Bewegung und liefern auch die jeweilige Position des Fingers 104 entlang des Touchstrips 20b in Echtzeit, solange der Finger auf dem Touchstripe 20b gehalten wird. Mit diesen Informationen versorgt verändert die zweite Verarbeitungsstufe 5 in Echtzeit die Werte bzw. Einstellungen der Signalverarbeitungsparameter des ersten Profils 1 - skaliert gemäß der jeweiligen Position des Fingers 104 zwischen den beiden äußersten Enden des ersten Touchstripes 20a - hin zu den Werten bzw. Einstellungen der Signalverarbeitungsparameter des zweiten Profils P2. Dieser grundsätzlich dynamische Vorgang ist in einer Momentaufnahme für die Zwischenposition durch eine dritte Matrix M3 visualisiert, deren Kästchen die Zahl „2" enthalten, was anzeigt, dass es sich um eine dynamisch in Echtzeit generiertes Zwischen-Profil P3 handelt, das in Echtzeit bei der Signalverarbeitungskette 30 zur Anwendung gebracht wird. Die Werte und Einstellungen des jeweiligen Signalverarbeitungsparameters des Zwischen- Profils P3 ergeben sich durch eine von der Position des Fingers 104 abhängige (z.B. lineare) Interpolation zwischen dem Wert bzw. der Einstellung des Signalverarbeitungsparameters des ersten Profils PI und dem Wert bzw. der Einstellung des dazu korrespondierenden Signalverarbeitungsparameters des zweiten Profils P2. Diese Interpolation wird für jeden Signalverarbeitungsparameter durchgeführt. Das Hörerlebnis, das durch das Zwischen-Profil P3 vermittelt wird, stellt also eine Mischung des jeweiligen durch das erste Profil 1 und das zweite Profil P2 vermittelten Hörerlebnisses dar, wobei das Mischverhältnis durch die Fingerposition gegeben ist. Die Position des Fingers 104 beeinflusst also im Wesentlichen alle Signalverarbeitungsparameter, soweit sie nicht als konstant vorgesehen sind oder in den beiden Profilen PI und PI nicht als identisch angeführt sind. 12 shows, with three images along the time axis t, a temporal sequence of movements during the condition of the user interface, whereby the finger 104 is first placed in the head area 90 and is subsequently moved to the foot area 91, while the finger remains in contact with the touchstrip 20b. The finger 104 is in an intermediate position between the head area 90 and the foot area 91, as shown in the middle figure. Only when the foot area 91 is reached is the finger 104 lifted off the touch strip 20b. This sequence of finger movement - i.e. the initial placement of the finger on the touch strip 20b in the head area 90 and the movement along the touch strip 20b and the final lifting of the finger from the touch strip 20b in the foot area 91 - is controlled by the input module controller 19a continuously digitally recorded and represented with the help of the interaction data ID, which is processed by the second processing stage 5. The interaction data ID describes the detected movement of the finger 104 as a "hold and swipe" movement and also provides the respective position of the finger 104 along the touch strip 20b in real time as long as the finger is held on the touch strip 20b. Provided with this information, the second processing stage 5 in real time the values or settings of the signal processing parameters of the first profile 1 - scaled according to the respective position of the finger 104 between the two outermost ends of the first touch strip 20a - to the values or settings of the signal processing parameters of the second profile P2 The fundamentally dynamic process is visualized in a snapshot for the intermediate position by a third matrix M3, the boxes of which contain the number "2", which indicates that it is an intermediate profile P3 generated dynamically in real time, which is used in real time in the signal processing chain 30 is applied. The values and settings of the respective signal processing parameter of the intermediate profile P3 result from a (for example linear) interpolation, which is dependent on the position of the finger 104, between the value or the setting of the signal processing parameter of the first profile PI and the value or the setting of the latter corresponding signal processing parameter of the second profile P2. This interpolation is performed for each signal processing parameter. The listening experience that is conveyed by the intermediate profile P3 therefore represents a mixture of the respective listening experience conveyed by the first profile 1 and the second profile P2, the mixing ratio being given by the finger position. So the position of finger 104 essentially affects everyone Signal processing parameters, unless they are intended to be constant or are not listed as identical in the two profiles PI and PI.

Im Vergleich zu der Figur 12 zeigt die Figur 13 den umgekehrten Vorgang, also dass als Ausgangspunkt der „Halten und Wischen" Bewegung von dem Fuß-Bereich 91 ausgegangen wird, dem das zweite Profil P2 zugeordnet ist, und dass die Bewegung über eine Zwischenposition, wo ein dynamisch generiertes Zwischen-Profil P3 erstellt wird und zur Anwendung gebracht wird, hin zum Kopf-Bereich 90 verläuft, dem das erste Profil PI zugeordnet ist. In comparison to Figure 12, Figure 13 shows the reverse process, i.e. that the starting point of the "hold and swipe" movement is the foot area 91, to which the second profile P2 is assigned, and that the movement runs via an intermediate position, where a dynamically generated intermediate profile P3 is created and applied, to the head area 90, to which the first profile PI is assigned.

Der Finger 104 kann auch für längere Zeit auf dem Touchstrip 20b verweilen, während er auf und ab bewegt wird, also eine Hin- und Her- „Wischbewegung" ausgeführt wird, um fortwährend ein der jeweiligen Fingerposition entsprechendes Zwischen-Profil P3 zu generieren. Die Person 100 kann diesen Vorgang als eine Art der Feineinstellung des Zwischen-Profils P3 nützen, um die für das Hörerlebnis ideale Einstellung der Signalverarbeitungsparameter des Zwischen-Profils P3 zu finden. Sobald die Interaktion beendet wird, also der Finger von dem Touchstrip 20b an einer beliebigen Zwischenposition abgehoben wird, beendet die Verarbeitungsstufe 3 die Interpolation der Werte bzw. Einstellungen der Signalverarbeitungsparameter zwischen dem ersten Profil PI und dem zweiten Profil P2 für das Zwischen-Profil P3 und das zu diesem Zeitpunkt vorliegende Zwischen-Profil P3 wird von da an für die Signalverarbeitungskette beibehalten, bis die nächste „Halten und Wischen" Bewegung erfasst wird oder die Person durch direktes Antippen des Kopf- Bereiches 90 oder des Fuß-Bereichs 91 das dort zugeordnete Profil Pl bzw. P2 unmittelbar aktiviert. The finger 104 can also remain on the touch strip 20b for a longer period of time while it is moved up and down, i.e. a back and forth "swipe" movement is carried out in order to continuously generate an intermediate profile P3 corresponding to the respective finger position. The person 100 can use this process as a type of fine adjustment of the intermediate profile P3 in order to find the ideal setting of the signal processing parameters of the intermediate profile P3 for the listening experience. As soon as the interaction is ended, i.e. the finger is lifted from the touch strip 20b at any intermediate position, the processing stage 3 ends the interpolation of the values or settings of the signal processing parameters between the first profile PI and the second profile P2 for the intermediate profile P3 and the intermediate profile P3 present at this time is retained from then on for the signal processing chain until the next "hold and swipe" movement is detected or the person directly taps the head area 90 or the foot area 91 to select the profile Pl assigned there. or P2 is activated immediately.

Als ein konkretes Beispiel für die dynamische, in Echtzeit ablaufende Erstellung des Zwischen-Profils P3 ist in weiterer Folge auf die Figur 14 verweisen. Sie zeigt das erste Profil PI, das zweite Profil P2 und das dritte Profil P3 in einer Meta-Beschreibung seiner Signalverarbeitungsparameter. As a concrete example of the dynamic, real-time creation of the intermediate profile P3, please refer to Figure 14. It shows the first profile PI, the second profile P2 and the third profile P3 in a meta-description of its signal processing parameters.

Die Meta-Beschreibung charakterisiert hier in beispielhafter Weise: eine Rauschunterdrückung 93; eine Orientierung 94 der virtuellen Mikrofone, also einen Ambisonic-Fokus; eine Verstärkung bzw. Lautstärke 95; ein Kompressor-Verhältnis 96; einen Bandpass-Frequenzbereich 97. Das erste Profil PI ist für die reine Wahrnehmung von Sprach optimiert, die aus einer Richtung korrespondierend zur Blickrichtung der Person stammt. The meta description characterizes here in an exemplary manner: noise suppression 93; an orientation 94 of the virtual microphones, i.e. an ambisonic focus; a gain or volume 95; a compressor ratio 96; a bandpass frequency range 97. The first profile PI is optimized for the pure perception of speech that comes from a direction corresponding to the direction in which the person is looking.

Das zweite Profil P2 für allgemeines Rundum-Hören oder in anderen Worten „alles Hörten" optimiert. The second profile P2 is optimized for general all-round hearing or in other words “everything hearing”.

Das Zwischen-Profil P3, dass sich durch eine Erfassung einer „Halten und Wischen" Bewegung des Fingers der Person 100 bei einer Positionierung des Fingers 104 genau mittig zwischen dem Kopf-Bereich 91 und dem Fuß- Bereich 92 ergibt, bildet einen in Echtzeit interpolierten Kompromiss für das Hörerlebnis der Person 100 zwischen den beiden Hörerlebnis-Extremen der vordefinierten Profile PI und P2. The intermediate profile P3, which results from detecting a "hold and wipe" movement of the finger of the person 100 when the finger 104 is positioned exactly in the middle between the head area 91 and the foot area 92, forms an interpolated one in real time Compromise for the listening experience of the person 100 between the two listening experience extremes of the predefined profiles PI and P2.

Im Folgende ist mit Hilfe der Figuren 15 bis 20 eine Konfiguration- Applikation erörtert, die auf einem Mobiltelefon 98 ausgeführt wird, wobei das Mobiltelefon 98 mit zumindest einer der Verarbeitungsvorrichtungen 2 oder 3 in (Funk)-Verbindung steht, um die von der Person 100 vorgenommen Einstellungen an diese zu Übertragen. In the following, with the aid of Figures 15 to 20, a configuration application is discussed which is executed on a mobile phone 98, wherein the mobile phone 98 is in (radio) connection with at least one of the processing devices 2 or 3 in order to transmit the settings made by the person 100 to the latter.

Wie in der Figur 15 zu sehen ist, zeigt die Applikation einen der beiden Touchstripes 20a bzw. 20b und eine Liste der Profilen Pn, Pm, Po, ... die dem Kopf-Bereich 90 oder dem Fuß-Bereich 91 zugeordnet werden können. Im vorliegenden Fall wurde dem Kopf-Bereich 90 durch manuelle Auswahl das Profil Pn und dem Fuß-Bereich das Profil Pm zugeordnet. As can be seen in Figure 15, the application shows one of the two touch stripes 20a or 20b and a list of profiles Pn, Pm, Po, ... that can be assigned to the head area 90 or the foot area 91. In the present case, the profile Pn was assigned to the head area 90 by manual selection and the profile Pm was assigned to the foot area.

Wie in der Figur 16 zu sehen ist, kann die Person 100 unterschiedliche Bewegungen bzw. Gesten aus einer Liste auswählen und diese Bewegungen bzw. Gesten mit Profilen sowohl für die linke wie auch für die rechte Verarbeitungseinrichtung 2 bzw. 3 assoziieren. Damit lassen sich Aktionen in Bezug auf die Anwendungen einzelner Profile auslösen, ohne dass das erwähnte Interpolieren zwischen zwei Profilen erfolgen muss. Die hier angeführten Gesten sind z.B. Berühren & Halten (als „T&H" gekennzeichnet) oder im Klartext angeführt „TIPPEN" und „STREICHEN" nach oben, wobei die Streichrichtung durch einen Pfeil nach oben angegeben ist. As can be seen in Figure 16, the person can select 100 different movements or gestures from a list and associate these movements or gestures with profiles for both the left and right processing devices 2 and 3, respectively. This allows actions to be triggered in relation to the applications of individual profiles without having to do the aforementioned interpolation between two profiles. The gestures listed here are, for example, touch & hold (marked as "T&H") or, in plain text, "TAP" and "SWIPE" upwards, where the direction of the swipe is indicated by an upward arrow.

Die Figur 17 zeigt Bewegungen oder Gesten, die auf beiden Touchstripes 20a und 20b im Wesentlichen simultan ausgeführt werden müssen, um das jeweils daneben angeführte Profil Pn - Pp zu aktivieren. Die angeführte Symbolik ist wie folgt zu verstehen. Ein nach oben zeigender Pfeil wie auch ein nach unten zeigender Pfeil repräsentiert eine Wisch- Bewegung, wobei die Richtung des Wischens durch die jeweilige Pfeilrichtung angegeben ist. Ein geschlossener Ring repräsentiert eine einfache kurzzeitige Berührung (ein Antippen). Ein punktierter Ring repräsentiert eine doppelte kurzzeitige Berührung (doppeltes Antippen). Figure 17 shows movements or gestures that must be performed essentially simultaneously on both touch strips 20a and 20b in order to activate the profile Pn - Pp shown next to it. The symbols shown are to be understood as follows. An arrow pointing upwards as well as an arrow pointing downwards represents a swiping movement, where the direction of the swipe is indicated by the respective arrow direction. A closed ring represents a single short-term touch (one tap). A dotted ring represents a double short-term touch (double tap).

Weiters zeigt die Figur 18 Einstellmöglichkeiten, welche die Funktion und den Betrieb der Touchstripes 20a und 20b betreffen. So lassen sich die beiden Touchstripes 20a und 20b in einem gekoppelten oder nicht gekoppelten (individuellen) Zustand betreiben. Weiters lässt sich die Empfindlichkeit einstellen. Auch kann festgelegt werden, dass ein haptisches Feedback vermittelt werden soll usw. Figure 18 also shows setting options that affect the function and operation of the touch strips 20a and 20b. The two touch strips 20a and 20b can be operated in a coupled or uncoupled (individual) state. The sensitivity can also be adjusted. It can also be specified that haptic feedback should be provided, etc.

Die Figur 19 zeigt Einstellungen, wie die erfasste Bewegung oder Geste Gl... G7 zur (Medien)-Steuerung eines externen Geräts, wie z.B. eines Smartphones, genutzt werden können. So lassen sich durch Bewegungen oder Gesten Anrufe annehmen, Anrufe stummschalten, die Lautstärke des externen Geräts erhöhen, reduzieren oder das Gerät stummschalten. Auch kann die Wiedergabe von Liedern, Nachrichten oder andern Multimedia- Quellen gesteuert werde, wie z.B. das Abspielen gestartet werden, das Abspielen pausiert werden, das Abspielen beendet werden oder sogar eine grundlegende Steuerung externen Geräts - im vorliegenden Fall eines PCs - erfolgen usw. Figure 19 shows settings of how the detected movement or gesture Eq. G7 can be used to (media) control an external device, such as a smartphone. You can use movements or gestures to accept calls, mute calls, increase or decrease the volume of the external device or mute the device. The playback of songs, messages or other multimedia sources can also be controlled, such as starting playback, pausing playback, stopping playback or even basic control of an external device - in this case a PC - etc.

Die Figur 20 zeigt ein Interface zum Erlerne von Bewegungen bzw. Gesten, sodass die Person 100 selbstentwickelte Bewegungen oder Gesten definieren kann oder auch die Charakteristik von vorgegeben Bewegungen oder Gesten den eigenen Bedürfnissen oder Gegebenheiten anpassen kann. Die von der Applikation gelernte Bewegung bzw. Gesten kann dann mit dem jeweiligen Profil (hier z.B. Po) assoziiert werden. Figure 20 shows an interface for learning movements or gestures, so that the person can define 100 self-developed movements or gestures or can also adapt the characteristics of given movements or gestures to their own needs or circumstances. The movement or gestures learned by the application can then be associated with the respective profile (here e.g. bottom).

Nachfolgend ist auf den flächenhaften Interaktionsbereich des Eingabemoduls 20 eingegangen. Der flächenhafte Interaktionsbereich kann beispielsweise als durchgehende Bereich zwischen dem Kopfbereich 90 und dem Fußbereich 91 ausgebildet sein. Gemäß einer speziellen Ausbildungsform kann der flächenhaft Interaktionsbereich jedoch auch strukturiert sein. Eine solche strukturierter, flächenhaft Interaktionsbereich ist beispielsweise in der Figuren 21 dargestellt. In dieser Ausbildung weist der Touchstrip 20a bzw. 20b drei separate berührungssensitive Erfassung-Zonen auf, nämlich eine erste Erfassung-Zone 110, eine zweite Erfassung-Zone 111 und eine dritte Erfassung-Zone 112, mit denen aktiv eine Berührung bzw. eine Bewegung auf elektronisch, insbesondere kapazitive Weise, erfassbar ist. Jede der Erfassung-Zonen 110 - 112 des betreffenden Touchstripes 20a bzw. 20b ist mit einem Eingabemodul-Controller (jede mit einem separaten oder alle mit einem gemeinsamen Eingabemodul-Controller) verbunden, so dass Berührungen und Bewegungen, die sich in einer der Erfassung-Zonen 110 -The areal interaction area of the input module 20 is discussed below. The areal interaction area can, for example, be designed as a continuous area between the head area 90 and the foot area 91. However, according to a special form of training, the area of interaction can also be structured. Such a structured, area-wide interaction area is shown, for example, in FIG. 21. In this embodiment, the touch strip 20a or 20b has three separate touch-sensitive detection zones, namely a first detection zone 110, a second detection zone 111 and a third Detection zone 112, with which a touch or a movement can be actively detected electronically, in particular capacitively. Each of the detection zones 110 - 112 of the relevant touch strip 20a or 20b is connected to an input module controller (each with a separate or all with a common input module controller) so that touches and movements that occur in one of the detection zones Zones 110 -

112 ereignen oder sich von einer der Erfassung-Zone 110 - 112 hin zur anderen Erfassung-Zone 110 - 112 erstrecken, erfassbar sind. Die Erfassung- Zonen 110 - 112 können direkt aneinander angrenzen oder mit Passiv-Zonen112 or extend from one of the detection zones 110 - 112 to the other detection zone 110 - 112. The detection zones 110 - 112 can be directly adjacent to each other or connected to passive zones

113 und 114, so wie in der Figur 21 dargestellt ist, voneinander getrennt sein. Die Passiv-Zonen 113 und 114 erlauben keine direkte Erfassung einer Berührung oder Bewegung und dienen nur als Abstand zwischen den Erfassung-Zonen 110 - 112. Die Passiv-Zonen 113 - 114 könne gerade, gekrümmt oder - wie in der Figur 21 dargestellt - keilförmig ausgebildet sein. 113 and 114, as shown in Figure 21, must be separated from each other. The passive zones 113 and 114 do not allow direct detection of a touch or movement and only serve as a distance between the detection zones 110 - 112. The passive zones 113 - 114 can be straight, curved or - as shown in Figure 21 - wedge-shaped be trained.

Mithilfe der drei-geteilten Touchstripes 20a und 20b lassen sich Menübereiche beziehungsweise Menüpunkte physikalisch getrennt der jeweiligen Erfassungszone zuordnen. So lässt sich in Analogie zu den vorangehenden Erörterungen, beispielsweise dem Kopfbereich 90 (hier der ersten Erfassung-Zone 110) ein erstes Profil und dem Fußbereich 91 (hier der dritten Erfassung-Zone 112) ein zweites Profil zuordnen. Zwischen den Profileinstellungen (Werte bzw. Einstellungen der Signalverarbeitungsparameter) der beiden Profile kann bei Vorliegen einer Halten- und Wischen-Bewegung wie erörtert interpoliert werden, um das dynamische Zwischen-Profil zu generieren. Using the three-part touch strips 20a and 20b, menu areas or menu items can be assigned to the respective detection zone in a physically separate manner. In analogy to the previous discussions, for example, a first profile can be assigned to the head area 90 (here the first detection zone 110) and a second profile to the foot area 91 (here the third detection zone 112). Interpolation can be carried out between the profile settings (values or settings of the signal processing parameters) of the two profiles when a hold and swipe movement is present, as discussed, in order to generate the dynamic intermediate profile.

Die mittlere Erfassung-Zone 111 kann als vordefiniertes dritte Profil zwischen die beiden anderen Profile, also das erste und das zweite Profil gelegt werden. Damit können nun entlang des Touchstripes 20a bzw. 20b Zwischen-Profile dynamisch erstellt werden, nämlich eines zwischen den Hörerlebnis-Extremen des ersten Profils und des dritten Profils wie auch eines zwischen der Hörerlebnisextremen des dritten Profils und des zweiten Profils. The middle detection zone 111 can be placed as a predefined third profile between the other two profiles, i.e. the first and the second profile. This means that intermediate profiles can now be created dynamically along the touch strip 20a or 20b, namely one between the listening experience extremes of the first profile and the third profile as well as one between the listening experience extremes of the third profile and the second profile.

Die mittlere Erfassung-Zone 111 kann jedoch auch nur zum raschen Aktivieren eines weiteren Profils oder auch nur einer einzigen Funktion verwendet werden, wohingegen das Zwischen-Profil nur zwischen dem ersten und dem zweiten Profil einstellbar ist. Wie erwähnt, kann das dynamische Überführen - in anderen Worten ein fließender Wechsel - der Einstellungen eines Profils in die Einstellungen eines anderen Profils unter Generierung des dynamischen Zwischen-Profils durch Benutzerinteraktion erfolgen. Dies kann von der Person 100 genutzt werden, wenn diese zwischen verschiedenen Umgebungen wechselt und die Halten- und Wuschen- Bewegung bewusst durchführt. Es kann jedoch auch vorgesehen sein, dass die Verarbeitungseinrichtung 2 bzw. 3 Algorithmen des maschinellen Lernens einsetzt, um Einstellungen der Verarbeitungseinrichtungen vorzunehmen und den Touchstripe 20a bzw. 20b die dort verfügbaren Profile zuzuweisen. Diese Automatismen können auf Grundlage von Echtzeit-Erfassungen von Signalen oder physikalischen Parametern mit Hilfe von Sensoren und/oder der Mikrophone der Verarbeitungseinrichtungen 2 bzw. 3 ablaufen. Auch kann vorgesehen ein, dass automatisch zwischen diesen automatisch zugewiesen Profilen interpoliert wird. Hierfür kann z.B. auf vorab aufgezeichnetes und ausgewertetes Nutzerverhalten zurückgegriffen werden, was beim maschinellen Lernen berücksichtigt wurde. However, the middle detection zone 111 can also be used only to quickly activate another profile or even just a single function, whereas the intermediate profile can only be set between the first and the second profile. As mentioned, the dynamic transfer - in other words a smooth change - of the settings of one profile to the settings of another profile can be carried out by user interaction, generating the dynamic intermediate profile. This can be used by the person 100 when they switch between different environments and consciously perform the hold and swipe movement. However, it can also be provided that the processing device 2 or 3 uses machine learning algorithms to make settings for the processing devices and to assign the profiles available there to the touch strips 20a or 20b. These automatisms can run on the basis of real-time recordings of signals or physical parameters using sensors and/or the microphones of the processing devices 2 or 3. It can also be provided that automatic interpolation takes place between these automatically assigned profiles. For this purpose, for example, previously recorded and evaluated user behavior can be used, which was taken into account in the machine learning.

Unabhängig davon, ob die manuelle oder die vollautomatische Variante zum Einsatz kommt, beinhaltet das Konzept der fließenden Mischung von Parametern, die Fähigkeit, verschiedene Profile oder Parametersätze nahtlos miteinander zu kombinieren, um ein besseres Nutzererlebnis zu erzielen. Dies ermöglicht es erstmals, mehrere Profile, wie zum Beispiel Transparenz, Sprachverstärkung, Musikeinstellung etc., stufenlos miteinander zu mischen. Es lassen sich also Profile nicht mehr im Sinne von entweder/oder aktivieren bw. deaktivieren. Vielmehr liegen diese definierten Profile nur die Eckpunkte fest, zwischen denen abhängig von der jeweiligen vier Position interpoliert wird. So können bei einer Verwendung von jeweils einem Touchstrip 20a und 20b zumindest vier Profile verfügbar sein. Je nachdem, ob die beiden Verarbeitungseinrichtungen 2 und 3 unabhängig voneinander betrieben werden oder in einem gekoppelten Modus betrieben werden, lassen sich dann einerseits - im unabhängigen Betriebsmodus - zur linke wie auch zur rechten Seite jeweils zwei Profile miteinander mischen oder andererseits - im gekoppelten Betriebsmodus - sogar drei oder bis zu vier Profile miteinander mischen. Dass ich die Verarbeitungseinrichtungen 2 bzw. 3 naturgemäß an einer für die eigene visuelle Wahrnehmung unzugänglichen Position am Kopf befinden, kann es vorteilhaft sein, die Gehäuseteile derart auszubilden, dass alleine durch die Berührung des Fingers klar ist, wo sich der Finger gerade befindet. So können beispielsweise die an die Touchstripes 20a bzw. 20b anschließenden Teile der Verarbeitungsvorrichtungen 2 bzw. 3 aus einem anderen material gebildet sein als die Touchtripes 20a und 20b selbst. Auch kann der Rand des Touchstripes 20a bzw. 20b entlang seiner Längserstreckung unterschiedlich ausgebildet, wie z.B. gewellt, geriffelt usw. sein um dem Benutzer eine haptisch wahrnehmbare Positionsinformation zu vermitteln. Regardless of whether the manual or fully automatic variant is used, the concept of the flowing mixing of parameters includes the ability to seamlessly combine different profiles or parameter sets to achieve a better user experience. This makes it possible for the first time to mix several profiles, such as transparency, voice amplification, music settings, etc., seamlessly. Profiles can no longer be activated or deactivated in the sense of either/or. Rather, these defined profiles only define the corner points between which interpolation takes place depending on the respective four positions. Thus, when using one touch strip 20a and 20b each, at least four profiles can be available. Depending on whether the two processing devices 2 and 3 are operated independently of one another or in a coupled mode, on the one hand - in independent operating mode - two profiles can be mixed together on the left and right side, or on the other hand - in coupled operating mode - even three or up to four profiles can be mixed together. Since the processing devices 2 and 3 are naturally located at a position on the head that is inaccessible to the user's own visual perception, it can be advantageous to design the housing parts in such a way that it is clear where the finger is just by touching it. For example, the parts of the processing devices 2 and 3 that are connected to the touch strips 20a and 20b can be made of a different material than the touch strips 20a and 20b themselves. The edge of the touch strip 20a and 20b can also be designed differently along its length, such as being corrugated, grooved, etc., in order to provide the user with haptically perceptible position information.

In der bisherigen Beschreibung wurde ganz allgemein auf das Mischen beziehungsweise ineinander Verschmelzen von Profilen eingegangen, was sich wie erörtert auf möglichst einfache Weise durch eine Bewegung eines einzigen Fingers entlang des jeweiligen Touchstripes 20a bzw. 20b realisieren lässt. Der Touchstripe 20a bzw. 20b kann jedoch auch zur Steuerung der Ausrichtung virtuellen Mikrophone der Ambisonic- Signalverarbeitungsstufe verwendet werden. In diesem Zusammenhang kann die Verarbeitungseinrichtung auch dazu konfiguriert (programmiert) sein, dass sie erkennt, dass die Person 100 zwei Finger auf den Touchstripe 20a bzw. 20b auflegt. The description so far has dealt very generally with the mixing or merging of profiles, which, as discussed, can be implemented as simply as possible by moving a single finger along the respective touch strip 20a or 20b. However, the touch strip 20a or 20b can also be used to control the alignment of virtual microphones of the Ambisonic signal processing stage. In this context, the processing device can also be configured (programmed) to detect that the person 100 places two fingers on the touch strip 20a or 20b.

Nachfolgend ist auf die Figur 22 verweisen. Das Auflegen kann mit v-förmig gespreizten Fingern (z.B. Zeigefinger und Mittelfinger einer Hand) geschehen, wobei jeweils ein Finger am Kopfbereich 90 und ein anderer Finger am Fuß-Bereich 91 aufgelegt wird und dann die Finger (also beide) zueinander hin auf die Mitte des Touchstripes 20a bzw. 20b bewegt werden. Diese Bewegung repräsentiert durch die dabei generierten Interaktionsdaten ID kann von der Verarbeitungseinrichtung 2 bzw. 3 dahingehend interpretiert werden, dass ein Profil eingestellte wird, das eine rundum Schallerfassung als Hörerlebnis ermöglicht ist. Ausgehend vom zuvor eingestellten Profil oder allgemein den gerade bei der Signalverarbeitungskette zur Anwendung kommenden Werten und Einstelllungen der Signalverarbeitungsparameter wir bei erkannter Zweifinger-Bewegung ein fließender Übergang der Werte und Einstellungen vorgenommen, um die rundum Schallerfassung zu erhalten. Nachfolgend ist auf die Figur 23 verweisen. Das Auflegen kann jedoch auch in etwa in der Mitte des Touchstripes 20a bzw. 20b geschehen, wonach beide Finger (z.B. der Zeigefinger und der Mittelfinger einer Hand) voneinander wegbewegt werden, also der eine der beiden Finger hin zu dem Kopfbereich 90 und der andere der beiden Finger hin zu dem Fuß-Bereich 91 bewegt wird. Diese Bewegung repräsentiert durch die dabei generierten Interaktionsdaten ID kann von der Verarbeitungseinrichtung 2 bzw. 3 dahingehend interpretiert werden, dass ein Profil eingestellt wird, das ein frontal nach vorne orientierte Schallerfassung als Hörerlebnis ermöglicht. Ausgehend vom zuvor eingestellten Profil oder allgemein den gerade bei der Signalverarbeitungskette zur Anwendung kommenden Werten und Einstelllungen der Signalverarbeitungsparameter wir bei erkannter Zweifinger-Bewegung ein fließender Übergang der Werte und Einstellungen vorgenommen, um die frontal nach vorne orientierte Schallerfassung zu erhalten. Below is reference to Figure 22. The placing can be done with fingers spread out in a V-shape (e.g. index finger and middle finger of one hand), with one finger being placed on the head area 90 and another finger on the foot area 91 and then the fingers (i.e. both) facing each other towards the middle of the touch strip 20a or 20b can be moved. This movement, represented by the interaction data ID generated in the process, can be interpreted by the processing device 2 or 3 to the effect that a profile is set that enables all-round sound detection as a listening experience. Based on the previously set profile or generally the values and settings of the signal processing parameters used in the signal processing chain, when a two-finger movement is detected, a smooth transition of the values and settings is made in order to maintain all-round sound detection. Below is reference to Figure 23. However, the placement can also occur approximately in the middle of the touch strip 20a or 20b, after which both fingers (e.g. the index finger and the middle finger of one hand) are moved away from each other, i.e. one of the two fingers towards the head area 90 and the other both fingers are moved towards the foot area 91. This movement, represented by the interaction data ID generated in the process, can be interpreted by the processing device 2 or 3 in such a way that a profile is set that enables frontally oriented sound detection as a listening experience. Based on the previously set profile or generally the values and settings of the signal processing parameters used in the signal processing chain, when a two-finger movement is detected, a smooth transition of the values and settings is made in order to obtain the frontally oriented sound detection.

Der Touchstripe 20a oder 20b kann auch dafür genutzt werden, um einfach nur das akustisch wahrnehmbare Ausgeben des Audiodatenstroms zu unterbinden. So kann einfach nur ein längeres Auflegen des Fingers zum Stummschalten der Schallabgabe interpretiert werden. Bei stummgeschalteter Verarbeitungseinrichtung 2 bzw.3 kann die gleiche Geste wieder zum Aktivieren der Schallabgabe interpretierte werden. The touch stripe 20a or 20b can also be used to simply prevent the acoustically perceptible output of the audio data stream. Simply placing your finger on it for a longer period of time can be interpreted as muting the sound. When the processing device 2 or 3 is muted, the same gesture can be interpreted again to activate the sound emission.

Weiters sei erwähnt, dass ein einfaches Berühren und Halten (den Finger aufgelegt lassen) der Touchstripe 20a oder 20b auch dazu genutzt werden kann, um das erwähnte Home-Profil zu aktivieren. Hierbei kann auch vorgesehen sein, dass bei zeitgleicher Ausführung dieser Bewegung an beiden Ohren, eine Stummschaltung erfolgt. It should also be mentioned that simply touching and holding (leaving your finger on) the touch strip 20a or 20b can also be used to activate the home profile mentioned above. It can also be provided that if this movement is performed on both ears at the same time, the device is muted.

Weiters kann der Touchstripe 20a bzw. 20b auch zur schrittweisen Selektion von Sprechern in einer Umgebung der Person 100 genutzt werden. So kann beispielsweise das Ambisonic-System vorbereitend die Umgebung der Person 100 analysiert haben und in verschiedenen Richtungen die Existenz unterschiedlicher Sprecher identifiziert haben. Diese Analyse kann natürlich auch fortwährend in Echtzeit erfolgen. Eine relativ langsame Wisch- Bewegung von oben nach unten kann nun dahingehend interpretiert werden, dass der Fokus der virtuellen Mikrophone von einem ersten auf einen zweiten Sprecher im Uhrzeigersinn verändert wird. Eine solche Bewegung von unten nach oben kann dahingehend interpretiert werden, dass der Fokus der virtuellen Mikrophone von einer ersten auf eine zweite Person gegen den Uhrzeigersinn verändert wird. Furthermore, the touch stripe 20a or 20b can also be used for the step-by-step selection of speakers in the person 100's surroundings. For example, the Ambisonic system may have preliminarily analyzed the environment of the person 100 and identified the existence of different speakers in different directions. This analysis can of course also be carried out continuously in real time. A relatively slow swipe movement from top to bottom can now be interpreted as changing the focus of the virtual microphones from a first to a second speaker in a clockwise direction. Such a movement from below upwards can be interpreted to mean that the focus of the virtual microphones is changed counterclockwise from a first to a second person.

Die vorangehend erörterten Bewegungen können natürlich auch umgekehrt interpretiert werden. The movements discussed above can of course also be interpreted the other way around.

Im Folgenden ist auf die Figur 24 eingegangen, die eine weitere Visualisierung des Mischens von zwei Profilen PI und P2 in ein bei der Signalverarbeitungskette 30 zur Anwendung kommendes finales drittes Profil P3 zeigen. Das erste Profil PI weist eine Parameter-Sammlung A auf und das zweite Profil P2 weit eine Parameter-Sammlung B auf. Dem Kopf-Bereich 90 des Touchbars 20b ist zu 100% das Profil PI zugeordnet, sodass bei einer dortigen Positionierung des Fingers nur die Parameter-Sammlung A bei der Signalverarbeitungskette 30 zur Anwendung kommt. Dem Fuß-Bereich 91 des Touchbars 20b ist zu 100% das zweite Profil P2 zugeordnet, sodass bei einer dortigen Positionierung des Fingers nur die Parameter-Sammlung B bei der Signalverarbeitungskette 30 zur Anwendung kommt. Bei einer Positionierung des Fingers zwischen diesen beiden Extremen wird je nach Fingerposition FP linear der Anteil der Parameter-Sammlung A (vom Kopf-Bereich 90 hin zum Fuß-Bereich 91 abnehmend) mit dem Anteil der Parameter-Sammlung B (vom Fuß-Bereich 91 hin zum Kopf-Bereich 90 abnehmend) gemischt, sodass sich die Anteile der jeweiligen Parameter-Sammlung A bzw. B immer auf 100% ergänzen. Das Ergebnis dieser Mischung ist in dem dritten Profil P3 manifestier, das die Parameter-Sammlung C aufweist. Die nach oben bzw. nach unten zeigenden Pfeile visualisieren zwischen ihren Spitzen den Spielraum für die Fingerpositionierung am Touchbar 20b. Figure 24 is discussed below, which shows a further visualization of the mixing of two profiles PI and P2 into a final third profile P3 used in the signal processing chain 30. The first profile PI has a parameter collection A and the second profile P2 has a parameter collection B. The head area 90 of the touch bar 20b is 100% assigned to the PI profile, so that when the finger is positioned there, only the parameter collection A is used in the signal processing chain 30. The foot area 91 of the touch bar 20b is 100% assigned to the second profile P2, so that when the finger is positioned there, only the parameter collection B is used in the signal processing chain 30. When the finger is positioned between these two extremes, depending on the finger position FP, the proportion of parameter collection A (decreasing from the head area 90 to the foot area 91) is mixed linearly with the proportion of parameter collection B (decreasing from the foot area 91 to the head area 90), so that the proportions of the respective parameter collections A and B always add up to 100%. The result of this mixing is manifested in the third profile P3, which has the parameter collection C. The arrows pointing up and down visualize the scope for finger positioning on the touch bar 20b between their tips.

In Ergänzung zu der Figur 24 zeigt die Figur 25 wie die Fingerposition FP konkret zum Mischen der Profile PI und P2 verwendet wird. Im vorliegenden Fall sei angenommen, dass die erfasste Fingerposition FP mit einem Position-Erfassung-Wert PEW in Prozent zwischen 0% am Fuß-Bereich 91 und 100% am Kopf-Bereich 90 angegeben wird. Beispielhaft ist nun der Finger genau in der Mitte zwischen dem Fuß-Bereich 91 und dem Kopf- Bereich 90 positioniert, sodass die Fingerposition FP mit einem Position- Erfassung-Wert von 50% angegeben wird. Demgemäß wird die Parameter- Sammlung A des ersten Profils sowie die Parameter-Sammlung B des zweiten Profils gewichtet mit jeweils nur 50% zur Anwendung gebracht, um daraus das dritte Profil P3 zu generieren. In addition to Figure 24, Figure 25 shows how the finger position FP is specifically used to mix the profiles PI and P2. In the present case, it is assumed that the recorded finger position FP is specified with a position detection value PEW in percent between 0% at the foot area 91 and 100% at the head area 90. For example, the finger is now positioned exactly in the middle between the foot area 91 and the head area 90, so that the finger position FP is specified with a position detection value of 50%. Accordingly, the parameter collection A of the first profile and the parameter collection B of the second Profiles weighted at only 50% each are used to generate the third profile P3.

Diese Systematik ist beispielhaft in der Figur 26 visualisiert. Hier sind die drei Profile PI bis P3 durch Parameter-Sammlungen A bis C definiert. Jede Parameter-Sammlung A - C beschreibt drei (Audio-) Effekte, nämlich einen ersten EFFECT X, einen zweiten EFFECT Y und einen dritten EFFECT Z, die je nach Profil PI bis P3 mit unterschiedlichem Gewicht bzw. mit unterschiedlicher Intensität (VALUE = 100, VALUE = 50 und VALUE =0) zur Anwendung kommen. Entsprechend der im Zusammenhang mit der Figur 25 festgelegten mittigen Fingerposition FP ergibt sich für die Parameter- Sammlung C das dritte Profil P3 ein VALUE=50 für alle drei EFFECTe X - Z, weil der EFFECT X - Y des jeweiligen Profils 1 bzw. 2 mit 50% bewertet und dann summarisch kombiniert wird. This system is visualized as an example in Figure 26. Here, the three profiles PI to P3 are defined by parameter collections A to C. Each parameter collection A - C describes three (audio) effects, namely a first EFFECT X, a second EFFECT Y and a third EFFECT Z, which are used with different weights or with different intensities (VALUE = 100, VALUE = 50 and VALUE = 0) depending on the profile PI to P3. According to the central finger position FP defined in connection with Figure 25, the third profile P3 for the parameter collection C results in a VALUE=50 for all three EFFECTs X - Z, because the EFFECT X - Y of the respective profile 1 or 2 is rated at 50% and then combined summarily.

In weiterer Folge ist vertiefend zu dieser allgemeinen Beschreibung in der Figur 27 eine beispielhafte Parametersammlung für eines der Profile angeführt, das unterschiedliche Audio-Effekte enthält. In der dort angeführten Tabelle ist in der ersten Spalte S1 der betreffende Audio-Effekt als „EFFECT" angeführt, in der zweiten Spalte S2 die Wertbeschreibung mit „VALUE DESC." angeführt und in der dritten Spalte S3 der betreffende Wert mit „VALUE" angeführt. In further detail on this general description, an exemplary parameter collection for one of the profiles that contains different audio effects is shown in FIG. 27. In the table listed there, the audio effect in question is listed as "EFFECT" in the first column S1, and the value description is listed as "VALUE DESC" in the second column S2. and the relevant value is listed in the third column S3 with “VALUE”.

Die Figur 28 zeigt den Ablauf einer Personalisierung eines Profils, hier des ersten Profils PI, mit Hilfe eines Smartphones SP. Auf dem Smartphone SP wird eine App (Softwareapplikation) ausgeführt, die das nötige User-Interface bereitstellt. Der Benutzer kann zunächst das jeweilige Profil auswählen, das er / sie anpassen möchte. Im vorliegenden Fall wird das Profil für die Parametersammlung A ausgewählt, dem Kopf-Bereich 90 des Touchbars zugeordnet (Auswahl „ASSIGN TO TOP") und der Audio-Effekt A (Auswahl „EFFECT A") mit einem Wert von 100 (Auswahl „VALUE A 100") selektiert. Die Auswahl des Audio-Effekts kann für die zur Verfügung stehenden Audio-Effekte (EFFECT B bis C ) komplettiert werden. Daraus ergibt sich die Parametersammlung A, die in einem Datenblock DB zusammengefasst dargestellt ist. Diese Parametersammlung A wird dann an das Hearing-Device 2 oder 3 oder die Hearing-Devices 2 und 3 (vorangehend als Verarbeitungseinrichtung 2 und 3 bezeichnet) z.B. per Bluetooth übertragen und steht dort für die weitere Audio-Signalverabeitung zur Verfügung. Figure 28 shows the process of personalizing a profile, here the first profile PI, using a smartphone SP. An app (software application) is running on the smartphone SP, which provides the necessary user interface. The user can first select the particular profile he/she wants to customize. In the present case, the profile for the parameter collection A is selected, assigned to the head area 90 of the touchbar (selection "ASSIGN TO TOP") and the audio effect A (selection "EFFECT A") with a value of 100 (selection "VALUE A 100") is selected. The selection of the audio effect can be completed for the available audio effects (EFFECT B to C). This results in the parameter collection A, which is summarized in a data block DB. This parameter collection A is then to the hearing device 2 or 3 or the hearing devices 2 and 3 (previously referred to as processing device 2 and 3), for example via Bluetooth transmitted and is available there for further audio signal processing.

Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorangehend detailliert beschriebenen Figuren nur um Ausführungsbeispiele handelt, welche vom Fachmann in verschiedenster Weise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen. Es wird der Vollständigkeit halber auch darauf hingewiesen, dass die Verwendung der unbestimmten Artikel „ein" bzw. „eine" nicht ausschließt, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Finally, it should be pointed out once again that the figures described in detail above are only exemplary embodiments which can be modified in a variety of ways by a person skilled in the art without departing from the scope of the invention. For the sake of completeness, it should also be pointed out that the use of the indefinite articles "a" or "an" does not exclude the possibility that the features in question may be present multiple times.

Claims

Ansprüche Expectations 1. Verarbeitungseinrichtung (2, 3), insbesondere Kopfhörer oder Hörgerät, wobei die Verarbeitungseinrichtung (2, 3) eine Signalverarbeitungskette (30) aufweist, die zur Verarbeitung von Mikrofonsignalen (MSI - MS4) gemäß Werten bzw. Einstellungen von Signalverarbeitungsparametern eines Profils in einen Audiodatenstrom ausgebildet ist, wobei ein erstes Profil und ein zweites Profil vorgesehen sind, und wobei die Verarbeitungseinrichtung (2, 3) dazu ausgebildet ist, unter Berücksichtigung von Interaktionsdaten (ID) die Werte bzw. Einstellungen der Signalverarbeitungsparameter des ersten Profils hin zu jenen Werten bzw. Einstellungen der Signalverarbeitungsparameter des zweiten Profils zu verändern oder umgekehrt, wobei die Interaktionsdaten eine als Bewegung erfasste Benutzerinteraktion, insbesondere eine als „Halten und Wischen" bekannten Bewegung, repräsentieren. 1. Processing device (2, 3), in particular headphones or hearing aid, wherein the processing device (2, 3) has a signal processing chain (30) which is designed to process microphone signals (MSI - MS4) according to values or settings of signal processing parameters of a profile into an audio data stream, wherein a first profile and a second profile are provided, and wherein the processing device (2, 3) is designed to change the values or settings of the signal processing parameters of the first profile to those values or settings of the signal processing parameters of the second profile or vice versa, taking interaction data (ID) into account, wherein the interaction data represents a user interaction recorded as a movement, in particular a movement known as "hold and swipe". 2. Verarbeitungseinrichtung (2, 3) gemäß Anspruch 1, die ausgebildet ist, mittels einer Funkverbindung die Interaktionsdaten (ID) von einer externen Interaktionsquelle zu empfangen und zu nutzen. 2. Processing device (2, 3) according to claim 1, which is designed to receive and use the interaction data (ID) from an external interaction source by means of a radio connection. 3. Verarbeitungseinrichtung (2, 3) gemäß Anspruch 1, die ein Eingabemodul (20) mit einem flächenhaften Interaktionsbereich aufweist, wobei das Eingabemodul (20) dazu ausgebildet ist, in dem Interaktionsbereich eine Bewegung, insbesondere eine Wischbewegung, als Benutzerinteraktion zu erfassen und die diese Benutzerinteraktion repräsentierende Interaktionsdaten (ID) bereitzustellen. 3. Processing device (2, 3) according to claim 1, which has an input module (20) with a flat interaction area, the input module (20) being designed to detect a movement, in particular a wiping movement, as a user interaction in the interaction area and the To provide interaction data (ID) representing this user interaction. 4. Verarbeitungseinrichtung (2, 3) nach Anspruch 3, die dazu ausgebildet ist, in dem flächenhaften Interaktionsbereich zumindest zwei verschiedene Menübereiche zu definieren, wobei dem jeweiligen Menübereich eines der beiden Profile zugeordnet ist. 4. Processing device (2, 3) according to claim 3, which is designed to define at least two different menu areas in the areal interaction area, wherein one of the two profiles is assigned to the respective menu area. 5. Verarbeitungseinrichtung (2, 3) nach Anspruch 3, wobei das Eingabemodul (20) zumindest eine Touchbar aufweist oder als Touchbar realisiert ist. 5. Processing device (2, 3) according to claim 3, wherein the input module (20) has at least one touch bar or is implemented as a touch bar. 6. Verarbeitungseinrichtung (2, 3) nach Anspruch 5, die derart konfiguriert ist, dass die Touchbar beim Tragen am Kopf am vorderen Rand der Ohrmuschel positioniert ist. 6. Processing device (2, 3) according to claim 5, which is configured such that the touch bar is positioned at the front edge of the auricle when worn on the head. 7. Verarbeitungseinrichtung (2, 3) gemäß Anspruch 1, wobei im Fall von kontinuierlich bzw. quasikontinuierlich veränderbaren Werten bez. Einstellungen die Verarbeitungseinrichtung (2, 3) zum kontinuierlichen bzw. quasikontinuierlichen Verändern der Werte bzw. Einstellungen ausgebildet ist, wobei der Grad der Veränderung mit der Weite der erfassten Bewegung skalieren. 7. Processing device (2, 3) according to claim 1, wherein in the case of continuously or quasi-continuously changeable values or settings, the processing device (2, 3) is designed to continuously or quasi-continuously change the values or settings, the degree of change scaling with the width of the detected movement. 8. Verarbeitungseinrichtung (2, 3) gemäß Anspruch 1, wobei im Fall von nur schrittweise oder nur sprunghaft veränderbaren Werten bzw. Einstellungen die Verarbeitungseinrichtung (2, 3) zum schrittweisen oder sprunghaften Verändern der Werte bzw. Einstellungen bei Eintreten eines Schwellwerts der erfassten Bewegung ausgebildet ist. 8. Processing device (2, 3) according to claim 1, wherein in the case of values or settings that can only be changed step by step or only abruptly, the processing device (2, 3) is used to change the values or settings step by step or abruptly when a threshold value of the detected movement occurs is trained. 9. Verarbeitungseinrichtung (2, 3) nach Anspruch 1, die zum Verändern der Werten bzw. Einstellungen auch in dem Fall ausgebildet ist, dass ein Profil eine Mischung aus kontinuierlich bzw. quasikontinuierlich veränderbaren Werten bez. Einstellungen und schrittweise oder nur sprunghaft veränderbaren Werten bzw. Einstellungen aufweist. 9. Processing device (2, 3) according to claim 1, which is designed to change the values or settings even in the case that a profile is a mixture of continuously or quasi-continuously changeable values or settings and gradually or only abruptly changeable values or .Settings. 10. Verarbeitungseinrichtung (2, 3) nach Anspruch 1, wobei im Fall, dass für einen Signalverarbeitungsparameter des ersten Profils kein korrespondierender Parameter des zweiten Profils oder umgekehrt vorliegt, die Verarbeitungseinrichtung (2, 3) dazu ausgebildet ist, den betreffenden Signalverarbeitungsparameter so lange unverändert zu belassen, 10. Processing device (2, 3) according to claim 1, wherein in the event that there is no corresponding parameter of the second profile for a signal processing parameter of the first profile or vice versa, the processing device (2, 3) is designed to keep the relevant signal processing parameter unchanged for as long to leave, - bis ein vollständiger Wechsel von dem ersten Profil auf das zweite Profil eingetreten ist oder - until a complete change from the first profile to the second profile has occurred or - bis ein prozentueller Schwellwert, wie z.B. 25% 50% oder 75%, der maximalen Bewegung erfasst wurde oder - up to a percentage threshold, such as 25%, 50% or 75% maximum movement was detected or - bis die im Wesentlichen kontinuierlich veränderlichen Werte bzw. Einstellungen gemäß einem Schwellwert (z.B. 25% 50% oder 75%) verändert wurden. - until the essentially continuously changing values or settings have been changed according to a threshold value (e.g. 25% 50% or 75%). 11. Verarbeitungseinrichtung (2, 3) nach Anspruch 1, die dazu ausgebildet ist, die gemäß der erfassten Bewegung vorzunehmende Veränderung der Signalverarbeitungsparameter in Echtzeit in der Signalverarbeitungskette umsetzen. 11. Processing device (2, 3) according to claim 1, which is designed to implement the change in the signal processing parameters to be made in accordance with the detected movement in real time in the signal processing chain. 12. Verarbeitungseinrichtung (2, 3) nach Anspruch 11, die dazu ausgebildet ist, das Verändern der Signalverarbeitungsparameter gemäß der erfassten Bewegung erst dann zu fixieren, wenn die Benutzerinteraktion endet. 12. Processing device (2, 3) according to claim 11, which is designed to only fix the changing of the signal processing parameters according to the detected movement when the user interaction ends. 13. Verarbeitungseinrichtung (2, 3) nach Anspruch 1, wobei die Verarbeitungseinrichtung (2, 3) dazu ausgebildet ist, bei einer vordefinierten Benutzerinteraktion oder einer als „Tippen und Halten" erfassten Benutzerinteraktion ein Home-Profil zu aktivieren, welches Signalverarbeitungsparameter für einen stabilen Hörmodus enthält. 13. Processing device (2, 3) according to claim 1, wherein the processing device (2, 3) is designed to activate a home profile in the event of a predefined user interaction or a user interaction recorded as "tap and hold", which signal processing parameters for a stable Listening mode includes. 14. System (1), bevorzugt ein Hörgeräte-System, besonders bevorzugt ein binaurales Hörgeräte-System, wobei das System (1) zwei Verarbeitungseinrichtung (2, 3) gemäß einem der Ansprüche 1 - 13 aufweist, wobei die erste Verarbeitungseinrichtung (2) für des linke Ohr und die zweite Verarbeitungseinrichtung (3) für das rechte Ohr einer Person bestimmt ist. 14. System (1), preferably a hearing aid system, particularly preferably a binaural hearing aid system, wherein the system (1) has two processing devices (2, 3) according to one of claims 1 - 13, wherein the first processing device (2) is intended for the left ear and the second processing device (3) for the right ear of a person. 15. System nach Anspruch 14, wobei die beiden Verarbeitungseinrichtung (2, 3) zum funkbasierten Übertragen der Interaktionsdaten (ID) von der ersten Verarbeitungseinrichtung an die zweite Verarbeitungseinrichtung oder umgekehrt ausgebildet sind und jene die Interaktionsdaten (ID) von der anderen Verarbeitungseinrichtung empfangende Verarbeitungseinrichtung dazu ausgebildet ist, die empfangenen Interaktionsdaten (ID) analog zu der die Interaktionsdaten (ID) aussendenden Verarbeitungseinrichtung zu berücksichtigen. 15. System according to claim 14, wherein the two processing devices (2, 3) are designed for radio-based transmission of the interaction data (ID) from the first processing device to the second processing device or vice versa and the processing device receiving the interaction data (ID) from the other processing device is designed to take the received interaction data (ID) into account analogously to the processing device transmitting the interaction data (ID).
PCT/EP2023/076943 2022-09-30 2023-09-28 Processing device, in particular headphones or hearing aid, for processing microphone signals into an audio data stream Ceased WO2024068868A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP23785984.8A EP4595461A1 (en) 2022-09-30 2023-09-28 Processing device, in particular headphones or hearing aid, for processing microphone signals into an audio data stream

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PCT/EP2022/077278 WO2024067994A1 (en) 2022-09-30 2022-09-30 System and method for processing microphone signals
EPPCT/EP2022/077278 2022-09-30

Publications (1)

Publication Number Publication Date
WO2024068868A1 true WO2024068868A1 (en) 2024-04-04

Family

ID=84045103

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/EP2022/077278 Ceased WO2024067994A1 (en) 2022-09-30 2022-09-30 System and method for processing microphone signals
PCT/EP2023/076943 Ceased WO2024068868A1 (en) 2022-09-30 2023-09-28 Processing device, in particular headphones or hearing aid, for processing microphone signals into an audio data stream

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/077278 Ceased WO2024067994A1 (en) 2022-09-30 2022-09-30 System and method for processing microphone signals

Country Status (2)

Country Link
EP (2) EP4595460A1 (en)
WO (2) WO2024067994A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080292126A1 (en) * 2007-05-24 2008-11-27 Starkey Laboratories, Inc. Hearing assistance device with capacitive switch
US20090123013A1 (en) 2007-11-14 2009-05-14 Siemens Medical Instruments Pte. Ltd. Hearing aid device
US20110091059A1 (en) * 2009-10-17 2011-04-21 Starkey Laboratories, Inc. Method and apparatus for behind-the-ear hearing aid with capacitive sensor
WO2016004996A1 (en) * 2014-07-10 2016-01-14 Widex A/S Personal communication device having application software for controlling the operation of at least one hearing aid
US20170199643A1 (en) * 2014-05-30 2017-07-13 Sonova Ag A method for controlling a hearing device via touch gestures, a touch gesture controllable hearing device and a method for fitting a touch gesture controllable hearing device
EP3358812A1 (en) * 2017-02-03 2018-08-08 Widex A/S Communication channels between a personal communication device and at least one head-worn device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008015263B4 (en) * 2008-03-20 2011-12-15 Siemens Medical Instruments Pte. Ltd. Hearing system with subband signal exchange and corresponding method
DE102012205634B4 (en) * 2012-04-05 2014-07-10 Siemens Medical Instruments Pte. Ltd. Adjusting a hearing device device
EP2869599B1 (en) * 2013-11-05 2020-10-21 Oticon A/s A binaural hearing assistance system comprising a database of head related transfer functions
EP2908549A1 (en) * 2014-02-13 2015-08-19 Oticon A/s A hearing aid device comprising a sensor member
EP2991380B1 (en) * 2014-08-25 2019-11-13 Oticon A/s A hearing assistance device comprising a location identification unit
US10181328B2 (en) * 2014-10-21 2019-01-15 Oticon A/S Hearing system
EP4236359A3 (en) * 2017-12-13 2023-10-25 Oticon A/s A hearing device and a binaural hearing system comprising a binaural noise reduction system
CN114208214B (en) 2019-08-08 2023-09-22 大北欧听力公司 Bilateral hearing aid systems and methods for enhancing the speech of one or more desired speakers

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080292126A1 (en) * 2007-05-24 2008-11-27 Starkey Laboratories, Inc. Hearing assistance device with capacitive switch
US20090123013A1 (en) 2007-11-14 2009-05-14 Siemens Medical Instruments Pte. Ltd. Hearing aid device
US20110091059A1 (en) * 2009-10-17 2011-04-21 Starkey Laboratories, Inc. Method and apparatus for behind-the-ear hearing aid with capacitive sensor
US20170199643A1 (en) * 2014-05-30 2017-07-13 Sonova Ag A method for controlling a hearing device via touch gestures, a touch gesture controllable hearing device and a method for fitting a touch gesture controllable hearing device
WO2016004996A1 (en) * 2014-07-10 2016-01-14 Widex A/S Personal communication device having application software for controlling the operation of at least one hearing aid
EP3358812A1 (en) * 2017-02-03 2018-08-08 Widex A/S Communication channels between a personal communication device and at least one head-worn device

Also Published As

Publication number Publication date
WO2024067994A1 (en) 2024-04-04
EP4595460A1 (en) 2025-08-06
EP4595461A1 (en) 2025-08-06

Similar Documents

Publication Publication Date Title
EP1912474B1 (en) Method for operating a hearing aid and hearing aid
DE202013012457U1 (en) Digital device
DE10146886A1 (en) Hearing aid with automatic switching to hearing coil operation
DE112015003822T5 (en) Systems and methods for equalizing audio for playback on an electronic device
DE102007052625A1 (en) Stereo Bluetooth headset
EP1933593B1 (en) Method of side definition when fitting hearing aids
DE202017103388U1 (en) Create and control channels that provide access to content from different audio provider services
DE102014006997A1 (en) Method, device and product for wireless immersive audio transmission
DE102008054087A1 (en) Portable hearing aid e.g. canal-hearing aid, for use in outer ear or ear channel of hearing impaired person, has capacitive proximity sensor comprising two metallic electrodes, which are arranged in inner side of hearing aid housing
DE102022205633A1 (en) SPATIAL AUDIO CONTROL
EP1848245B1 (en) Hearing aid with source separation and corresponding method
DE102007051308B4 (en) A method of processing a multi-channel audio signal for a binaural hearing aid system and corresponding hearing aid system
JP6926640B2 (en) Target position setting device and sound image localization device
WO2024068868A1 (en) Processing device, in particular headphones or hearing aid, for processing microphone signals into an audio data stream
DE102008021607A1 (en) Observing system for use in process automizing plants or plant components, is provided with model of plant with clear identifiers
DE102022117387A1 (en) VOLUME CONTROL METHOD AND SYSTEM
CH709679A2 (en) Method for remote support of hearing impaired.
EP2648423B1 (en) Adjustment of a hearing aid device
DE102023116204A1 (en) Method and system for acoustic transmission
EP3972291A1 (en) Hearing system and method for operating a hearing aid
DE112023002632T5 (en) EARBUDS CHARGING DEVICE INCLUDING USER INTERFACE FOR CONTROLLING THE EARBUDS
EP2592850B1 (en) Automatic activating and deactivating of a binaural hearing system
EP2028878A2 (en) Method of side definition when fitting hearing aids
DE102023201872B3 (en) Method for operating a hearing device
AT413010B (en) DEVICE FOR TRANSFER OF SPATIAL SOUND SIGNALS

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23785984

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023785984

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2023785984

Country of ref document: EP

Effective date: 20250430

WWP Wipo information: published in national office

Ref document number: 2023785984

Country of ref document: EP