[go: up one dir, main page]

DE112016004161T5 - Mikrofonsignalzusammenführung - Google Patents

Mikrofonsignalzusammenführung Download PDF

Info

Publication number
DE112016004161T5
DE112016004161T5 DE112016004161.6T DE112016004161T DE112016004161T5 DE 112016004161 T5 DE112016004161 T5 DE 112016004161T5 DE 112016004161 T DE112016004161 T DE 112016004161T DE 112016004161 T5 DE112016004161 T5 DE 112016004161T5
Authority
DE
Germany
Prior art keywords
signal
noise
estimates
weight
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112016004161.6T
Other languages
English (en)
Inventor
Kuan-Chieh Yen
Thomas E. Miller
Mushtaq Syed
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Knowles Electronics LLC
Original Assignee
Knowles Electronics LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Knowles Electronics LLC filed Critical Knowles Electronics LLC
Publication of DE112016004161T5 publication Critical patent/DE112016004161T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/0308Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/10Details of earpieces, attachments therefor, earphones or monophonic headphones covered by H04R1/10 but not provided for in any of its subgroups
    • H04R2201/107Monophonic and stereophonic headphones with microphone for two-way hands free communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/43Signal processing in hearing aids to enhance the speech intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones
    • H04R2410/05Noise reduction with a separate noise microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/03Synergistic effects of band splitting and sub-band processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/13Hearing devices using bone conduction transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

Es werden Systeme und Verfahren für die Zusammenführung von Mikrofonsignalen bereitgestellt. Ein anschauliches Verfahren beginnt mit dem Empfang eines ersten und eines zweiten Signals, die Klänge repräsentieren, die entsprechend von einem Innenmikrofon und einem Außenmikrofon erfasst werden. Das zweite Signal enthält mindestens eine Sprachkomponente. Das erste Signal und die Sprachkomponente werden zumindest durch menschliches Gewebe modifiziert. Das erste und das zweite Signal werden verarbeitet, so dass Abschätzungen des Rauschens erhalten werden. Das erste Signal wird an das zweite Signal angeglichen. Das zweite Signal und das angeglichene erste Signal werden auf der Grundlage der Abschätzungen des Rauschens gemischt, um ein verbessertes Sprachsignal zu erzeugen. Das Innenmikrofon ist im Inneren eines Gehörgangs angeordnet und ist zur Isolation von Schallsignalen von außerhalb des Gehörgangs abgedichtet. Das Außenmikrofon ist außerhalb des Gehörgangs angeordnet. Ein Teil oder die gesamte Verarbeitung des Mischens und des Angleichens in dem System und in dem Verfahren können auf Basis von Teilbändern im Frequenzbereich ausgeführt werden.

Description

  • GEBIET
  • Die vorliegende Erfindung betrifft generell die Audio-Verarbeitung und insbesondere Systeme und Verfahren zum Zusammenführen von Mikrofonsignalen.
  • HINTERGRUND
  • Die große Menge an intelligenten Telefonen, Tablet-Rechnern und anderen Mobilgeräten hat die Art und Weise fundamental geändert, in der Menschen auf Information zugreifen und miteinander kommunizieren. Die Menschen telefonieren an unterschiedlichen Orten, etwa in gut besuchten Kneipen, in belebten Stadtstraßen und windreichen Außenbereichen, in denen nachteilige akustische Bedingungen erhebliche Herausforderungen für die Qualität der Sprachkommunikation darstellen. Ferner sind mittlerweile Sprachbefehle ein wichtiges Verfahren zum Interagieren mit elektronischen Geräten in Anwendungen, in denen Benutzer mit ihren Augen und Händen primär eine andere Aufgabe ausführen, etwa beispielsweise Autofahren. Mit der voranschreitenden Verkleinerung elektronischer Geräte können Sprachbefehle das bevorzugte Verfahren zum Interagieren mit elektronischen Geräten werden. Trotz der jüngeren Fortschritte in der Sprachtechnik ist jedoch die Spracherkennung unter lärmbelasteten Bedingungen weiterhin schwierig. Daher ist die Reduzierung des Einflusses von Geräuschen bzw. des Rauschens sowohl für die Qualität der Sprachkommunikation als auch das Verhalten der Spracherkennung wichtig.
  • Am Kopf getragene Garnituren sind eine natürliche Erweiterung für Telefonendgeräte und Musikwiedergabegeräte, da sie die Bequemlichkeit des Freisprechens sowie Privatsphäre bei der Verwendung bieten. Im Vergleich zu anderen Freisprechoptionen repräsentiert eine am Kopf getragene Garnitur eine Option, in der Mikrofone an Stellen in der Nähe des Mundes des Benutzers angeordnet werden können, wobei es Einschränkungen in der Geometrie bezüglich des Mundes des Benutzers und der Mikrofone gibt. Dies führt zu Mikrofonsignalen, die ein besseres Signal-zu-Rauschen-Verhältnis (SNR) haben und einfacher zu steuern sind, wenn eine Rauschunterdrückung auf Basis mehrerer Mikrofone eingesetzt wird. Im Vergleich zur Verwendung herkömmlicher Hörer sind jedoch Mikrofone von Kopfgarnituren relativ weit vom Mund des Benutzers entfernt. Folglich bietet die Kopfgarnitur nicht die Wirkung der Rauschabschirmung, die durch die Hand des Benutzers und die meisten der Hörer erreicht wird. Da die Kopfgarnituren in der Vergangenheit aufgrund der Anforderungen an Kopfgarnituren, dass sie weniger auffällig und weniger störend sind, zunehmend kleiner und leichter geworden sind, wird dieses Problem zunehmend bedeutsam.
  • Wenn ein Benutzer eine Kopfgarnitur trägt, werden die Gehörgänge des Benutzers in natürlicher Weise von der äußeren Schallumgebung abgeschirmt. Wenn eine Kopfgarnitur eine intensive akustische Abdichtung des Gehörgangs bietet, wäre ein im Inneren des Gehörgangs angeordnetes Mikrofon (das Innenmikrofon) akustisch von der Außenumgebung isoliert, so dass die Umgebungsgeräusche deutlich abgeschwächt wären. Ferner ist ein Mikrofon im Inneren eines abgeschirmten Gehörgangs frei von Effekten von Windturbulenzen. Andererseits kann die Stimme eines Benutzers über diverse Gewebearten im Kopf des Benutzers geleitet werden, um somit den Gehörgang zu erreichen, da es im Inneren des Gehörgangs eingeschlossen ist. Ein vom Innenmikrofon aufgenommenes Signal sollte daher ein wesentlich höheres SNR im Vergleich zu dem Mikrofon außerhalb des Gehörgangs des Benutzers (das Außenmikrofon) haben.
  • Jedoch sind auch die Innenmikrofonsignale nicht unproblematisch. Zunächst hat die durch den Körper geleitete Stimme bzw. Sprache tendenziell einen stark abgeschwächten Hochfrequenzanteil und hat damit eine deutlich schmälere wirksame Bandbreite im Vergleich zu Sprache, die über Luft geleitet wird. Wenn ferner die durch den Körper geleitete Sprache bzw. Stimme im Inneren des Kanals eingeschlossen ist, bildet sie stehende Wellen im Inneren des Gehörgangs. Als Folge davon erscheint die vom Innenmikrofon aufgenommene Stimme häufig dumpf und nachhallend, und es fehlt die natürliche Klangfarbe der Stimme, die von den Außenmikrofonen aufgenommen wird. Des Weiteren unterliegen die effektive Bandbreite und die Muster der stehenden Wellen deutlichen Schwankungen für unterschiedliche Benutzer und Passbedingungen für Kopfgarnituren. Wenn schließlich auch ein Lautsprecher in dem gleichen Gehörgang angeordnet ist, werden auch Klänge, die vom Lautsprecher erzeugt werden, von dem Innenmikrofon aufgenommen. Selbst mit akustischer Echoauslöschung (AEC) führt die enge Kopplung zwischen dem Lautsprecher und dem Innenmikrofon häufig zu deutlicher Sprachverzerrung nach der AEC.
  • Es wurden andere Anstrengungen in der Vergangenheit unternommen, um die einzigartigen Eigenschaften des Innenmikrofonsignals zum besseren Verhalten bei Rauschunterdrückung vorteilhaft auszunutzen. Dennoch bleibt das Erreichen eines gleichbleibenden Leistungsverhaltens für unterschiedliche Benutzer und unterschiedliche Nutzungsbedingungen weiterhin eine Herausforderung.
  • ÜBERBLICK
  • Dieser Überblick wird bereitgestellt, um eine Auswahl von Konzepten in vereinfachter Form einzuführen, die nachfolgend in der detaillierten Beschreibung weiter beschrieben sind. Dieser Überblick soll keine Schlüsselmerkmale oder wesentlichen Merkmale des beanspruchten Gegenstands angeben, und es ist auch nicht beabsichtigt, dass er als Hilfe bei der Festlegung des Schutzbereichs des beanspruchten Gegenstands zu verwenden ist.
  • Gemäß einem Aspekt der beschriebenen Technik wird ein beispielhaftes Verfahren zur Verschmelzung bzw. Zusammenführung von Mikrofonsignalen bereitgestellt. In diversen Ausführungsformen umfasst das Verfahren das Empfangen eines ersten Signals und eines zweiten Signals. Das erste Signal enthält zumindest eine Sprachkomponente bzw. Stimmkomponente. Das zweite Signal enthält die Sprachkomponente bzw. Stimmkomponente, die durch zumindest menschliches Gewebe modifiziert ist. Das Verfahren umfasst ferner die Verarbeitung des ersten Signals, so dass erste Abschätzungen des Rauschens erhalten werden. Das Verfahren umfasst ferner Angleichen des zweiten Signals an das erste Signal. Das Zusammenführen bzw. das Zusammenmischen, auf der Grundlage zumindest der ersten Abschätzungen des Rauschens, des ersten Signals und des angeglichenen zweiten Signals zur Erzeugung eines verbesserten Sprachsignals ist ebenfalls Bestandteil des Verfahrens. In einigen Ausführungsformen umfasst das Verfahren die Verarbeitung des zweiten Signals derart, dass zweite Abschätzungen des Rauschens erhalten werden, und das Mischen beruht zumindest auf den ersten Abschätzungen des Rauschen und den zweiten Abschätzungen des Rauschens.
  • In einigen Ausführungsformen repräsentiert das zweite Signal mindestens einen Klang, der durch ein Innenmikrofon erfasst wird, das im Inneren eines Gehörgangs angeordnet ist. In gewissen Ausführungsformen kann das Innenmikrofon während der Verwendung abgeschlossen bzw. abgedichtet sein, um eine Isolierung zu Schallsignalen, die von außerhalb des Gehörgangs stammen, zu erreichen oder es kann teilweise abgedichtet sein in Abhängigkeit von dem Benutzer und der Anordnung des Innenmikrofons des Benutzers in dem Gehörgang.
  • In einigen Ausführungsformen repräsentiert das erste Signal mindestens einen Klang, der von einem Außenmikrofon, das außerhalb eines Gehörgangs angeordnet ist, aufgenommen wird.
  • In einigen Ausführungsformen beinhaltet das Verfahren ferner das Ausführen einer Rauschunterdrückung des ersten Signals auf der Grundlage der ersten Abschätzungen des Rauschens vor der Angleichung der Signale. In anderen Ausführungsformen umfasst das Verfahren ferner das Ausführen einer Rauschunterdrückung des ersten Signals auf der Grundlage der ersten Abschätzungen des Rauschens und einer Rauschunterdrückung des zweiten Signals auf der Grundlage der zweiten Abschätzungen des Rauschens vor dem Angleichen der Signale.
  • Gemäß einem weiteren Aspekt der vorliegenden Offenbarung wird ein System zum Zusammenführen von Mikrofonsignalen bereitgestellt. Das anschauliche System umfasst einen digitalen Signalprozessor, der ausgebildet ist, ein erstes Signal und ein zweites Signal zu empfangen. Das erste Signal enthält mindestens eine Sprachkomponente bzw. Stimmkomponente. Das zweite Signal enthält zumindest die Sprachkomponente, die zumindest durch menschliches Gewebe modifiziert ist. Der digitale Signalprozessor ist ausgebildet, das erste Signal so zu verarbeiten, dass erste Abschätzungen von Rauschen erhalten werden, und in einigen Ausführungsformen, das zweite Signal zu verarbeiten, so dass zweite Abschätzungen des Rauschens erhalten werden. In dem anschaulichen System gleicht der digitale Signalprozessor das zweite Signal an das erste Signal an und mischt, auf der Grundlage zumindest der ersten Abschätzungen des Rauschens, das erste Signal und das angeglichene zweite Signal, so dass ein verbessertes Stimmsignal bzw. Sprachsignal erzeugt wird. In einigen Ausführungsformen gleicht der digitale Signalprozessor das zweite Signal an das erste Signal an und mischt, auf der Grundlage zumindest der ersten Abschätzungen des Rauschens und der zweiten Abschätzungen des Rauschens, das erste Signal und das angeglichene zweite Signal derart, dass ein verbessertes Sprachsignal bzw. Stimmsignal erzeugt wird.
  • In einigen Ausführungsformen umfasst das System ein Innenmikrofon und ein Außenmikrofon. In gewissen Ausführungsformen kann das Innenmikrofon während der Verwendung abgedichtet bzw. nach außen abgeschlossen sein, um eine Isolierung zu Schallsignalen zu erreichen, die von außerhalb des Gehörgangs stammen, oder es kann teilweise abgedichtet sein, wobei dies von dem Benutzer und der von dem Benutzer vorgenommenen Anordnung des Innenmikrofons in dem Gehörgang abhängt. Das zweite Signal kann mindestens einen Klang repräsentieren, der von dem Innenmikrofon aufgenommenen wird. Das Außenmikrofon ist außerhalb des Gehörgangs angeordnet. Das erste Signal kann mindestens einen Klang repräsentieren, der von dem Außenmikrofon aufgenommen wird.
  • Gemäß einem weiteren Beispiel werden in den Ausführungsformen der vorliegenden Offenbarung die Schritte des Verfahrens zur Zusammenführung von Mikrofonsignalen in einem nichtflüchtigen maschinenlesbaren Medium gespeichert, das Befehle enthält, die, wenn sie durch einen oder mehrere Prozessoren umgesetzt werden, die genannten Schritte ausführen.
  • Andere beispielhafte Ausführungsformen der Offenbarung und Aspekte ergeben sich aus der folgenden Beschreibung, wenn diese in Zusammenhang mit den folgenden Zeichnungen studiert wird.
  • Figurenliste
  • Es werden Ausführungsformen beispielhaft und nicht einschränkend in den Figuren der begleitenden Zeichnungen dargestellt, in denen gleiche Bezugszeichen gleiche Elemente benennen.
    • 1 ist eine Blockansicht eines Systems und einer Umgebung, in der das System verwendet wird, gemäß einer anschaulichen Ausführungsform.
    • 2 ist eine Blockansicht einer Kopfgarnitur, der zum Einrichten der vorliegenden Technik gemäß einer anschaulichen Ausführungsform geeignet ist.
    • 3-5 sind Beispiele von Signalformen und spektralen Verteilungen von Signalen, die von einem Außenmikrofon und einem Innenmikrofon aufgenommen werden.
    • 6 ist eine Blockansicht, die Details einer digitalen Verarbeitungseinheit zur Zusammenführung bzw. zur Verschmelzung von Mikrofonsignalen gemäß einer anschaulichen Ausführungsform darstellt.
    • 7 ist ein Flussdiagramm, das ein Verfahren zur Mikrofonsignalzusammenführung gemäß einer anschaulichen Ausführungsform zeigt.
    • 8 ist ein Computersystem, das zum Einrichten von Verfahren für die vorliegende Technik gemäß einer anschaulichen Ausführungsform verwendet werden kann.
  • DETAILLIERTE BESCHREIBUNG
  • Die hierin offenbarte Technik betrifft Systeme und Verfahren zum Verschmelzen bzw. Zusammenführen von Mikrofonsignalen. Es können diverse Ausführungsformen der vorliegenden Technik mit Mobilgeräten umgesetzt werden, die ausgebildet sind, Audiodaten zu empfangen und/ oder zu anderen Geräten weiterzuleiten, etwa beispielsweise Funktelefone, Telefonhörer, Kopfgarnituren, am Körper tragbare Geräte und Systeme zum Ausführen von Konferenzen.
  • Diverse Ausführungsformen der vorliegenden Offenbarung bieten eine nahtlose Verschmelzung bzw. Zusammenführung mindestens eines Innenmikrofonsignals und mindestens eines Außenmikrofonsignals unter Anwendung der gegensätzlichen Eigenschaften der beiden Signale, um einen optimalen Ausgleich zwischen Rauschunterdrückung und Stimmqualität bzw. Sprachqualität zu erreichen.
  • Gemäß einer anschaulichen Ausführungsform kann ein Verfahren zur Verschmelzung bzw. zur Zusammenführung von Mikrofonsignalen damit beginnen, dass ein erstes Signal und ein zweites Signal empfangen werden. Das erste Signal enthält mindestens eine Stimmkomponente bzw. Sprachkomponente. Das zweite Signal enthält die Sprachkomponente, die zumindest durch menschliches Gewebe modifiziert ist. Das anschauliche Verfahren umfasst die Verarbeitung des ersten Signals, so dass erste Abschätzungen für ein Rauschen erhalten werden und in einigen Ausführungsformen enthält es die Verarbeitung des zweiten Signals, um zweite Abschätzungen des Rauschens zu erhalten. Das Verfahren kann ferner das Angleichen des zweiten Signals an das erste Signal enthalten. Das Verfahren kann ein Mischen bereitstellen, auf der Grundlage zumindest der ersten Abschätzungen des Rauschens (und in einigen Ausführungsformen auch auf der Grundlage der zweiten Abschätzungen des Rauschens), des ersten Signals und des angeglichenen zweiten Signals, um ein verbessertes Sprachsignal zu erzeugen.
  • Es sei nun auf 1 verwiesen, in der eine Blockansicht eines anschaulichen Systems 100 zur Verschmelzung bzw. Zusammenführung von Mikrofonsignalen und dessen Umgebung gezeigt ist. Das anschauliche System 100 umfasst mindestens ein inneres Mikrofon bzw. Innenmikrofon 106, ein äußeres Mikrofon bzw. Außenmikrofon 108, einen digitalen Signalprozessor (DSP) 112 und eine Funkschnittstelle oder verdrahtete Schnittstelle 114. Das Innenmikrofon 106 ist im Inneren eines Gehörgangs 104 eines Benutzers angeordnet und ist von der äußeren Schallumgebung 102 relativ abgeschirmt. Das Außenmikrofon 108 ist außerhalb des Gehörgangs 104 des Benutzers angeordnet und unterliegt der Einwirkung der äußeren Schallumgebung 102.
  • In diversen Ausführungsformen sind die Mikrofone 106 und 108 entweder analog oder digital. In jedem Falle werden die Ausgangssignale der Mikrofone in ein synchronisiertes pulscodiertes Modulations-(PCM) Format mit geeigneter Abtastfrequenz umgewandelt und dem Eingangsanschluss des DSP 112 zugeleitet. Die Signale xin und xex bezeichnen Signale, die Klänge repräsentieren, die entsprechend von dem Innenmikrofon 106 und dem Außenmikrofon 108 aufgenommen werden.
  • Der DSP 112 führt geeignete Signalverarbeitungsaufgaben aus, um die Qualität der Mikrofonsignale xin und xex zu verbessern. Das Ausgangssignal des DSP 112, das als das ausgesendete Signal (sout) bezeichnet wird, wird zu dem gewünschten Ziel, beispielsweise zu einem Netzwerk oder einer übergeordneten Einrichtung 116 (siehe das Signal, das als sout in der Aufwärtsverbindung bzw. Aufwärtsstrecke bezeichnet ist), über eine Funkschnittstelle oder verdrahtete Schnittstelle 114 gesendet.
  • Wenn eine Zwei-Wege-Sprachkommunikation erforderlich ist, wird ein Signal durch das Netzwerk oder die übergeordnete Einrichtung 116 aus einer geeigneten Quelle (beispielsweise über die Funkschnittstelle oder verdrahtete Schnittstelle 114) empfangen. Dieses wird als das Empfangs-Eingangssignal (rin) bezeichnet (als rin in der Abwärtsverbindung bzw. Abwärtsstrecke in dem Netzwerk oder der übergeordneten Einrichtung 116 gekennzeichnet). Das empfangene Eingangssignal kann über die Funkschnittstelle oder verdrahtete Schnittstelle 114 zur erforderlichen Verarbeitung in den DSP 112 eingekoppelt werden. Das resultierende Signal, das als das Empfangsausgangssignal (rout) bezeichnet wird, wird mittels eines Digital-Analog-Wandlers (DAC) 110 in ein analoges Signal umgewandelt und wird dann einem Lautsprecher 118 eingespeist, um dem Benutzer präsentiert zu werden. In einigen Ausführungsformen ist der Lautsprecher 118 in dem gleichen Gehörgang 104 wie das Innenmikrofon 106 angeordnet. In anderen Ausführungsformen ist der Lautsprecher 118 in dem zu dem Gehörgang 104 gegenüberliegenden Gehörgang angeordnet. In dem Beispiel der 1 befindet sich der Lautsprecher 118 in dem gleichen Gehörgang wie das Innenmikrofon 106, so dass eine akustische Echoauslöschung (AEC) erforderlich sein kann, um die Rückkopplung des empfangenen Signals zur anderen Seite zu verhindern. Wenn optional in einigen Ausführungsformen keine weitere Verarbeitung an dem empfangenen Signal erforderlich ist, kann das empfangene Eingangssignal (rin) mit dem Lautsprecher gekoppelt werden, ohne dass es den DSP 112 durchläuft.
  • 2 zeigt eine anschauliche Kopfgarnitur 200, die zur Einrichtung von Verfahren der vorliegenden Offenbarung geeignet ist. Die Kopfgarnitur bzw. das Headset 200 umfasst ein oder mehrere Module für das Ohrinnere (ITE-Module) 202 und Module 204 und 206 zur Anbringung hinter dem Ohr (BTE) für jedes Ohr eines Benutzers. Das eine oder die mehreren ITE-Module 202 sind so ausgebildet, dass sie in die Gehörgänge des Benutzers eingeführt werden können. Die BTE-Module 204 und 206 sind so ausgebildet, dass sie hinter den Ohren des Benutzers angeordnet werden können. In einigen Ausführungsformen kommuniziert die Kopfgarnitur 200 mit übergeordneten Einrichtungen über eine Bluetooth-Funkverbindung. Die Bluetooth-Funkverbindung kann einem Bluetooth-Niederenergie-(BLE-) oder einem anderen Bluetooth-Standard entsprechen und kann zur Wahrung der Geheimhaltung auf diverse Arten verschlüsselt sein.
  • In diversen Ausführungsformen umfassen das eine oder die mehreren ITE-Module 202 das Innenmikrofon 106 und den Lautsprecher 118, die beide in Bezug auf den Gehörgang nach innen zeigen. Das eine oder die mehreren ITE-Modul 202 können eine akustische Trennung zwischen dem einen oder den beiden Gehörgängen 104 und der Außenschallumgebung 102 bieten.
  • In einigen Ausführungsformen enthält jedes der BTE-Module 204 und 206 mindestens ein Außenmikrofon. Das BTE-Modul 204 kann einen DSP, einen oder mehrere Steuerknöpfe und eine Bluetooth-Funkverbindung zu übergeordneten Geräten enthalten. Das BTE-Modul 206 kann eine geeignete Batterie mit einer Ladeschaltung aufweisen.
  • Eigenschaften von Mikrofonsignalen
  • Das Außenmikrofon 108 unterliegt der Einwirkung der Außenschallumgebung. Die Stimme des Benutzers wird auf das Außenmikrofon 108 über die Luft übertragen. Wenn das Außenmikrofon 108 relativ nahe an dem Mund des Benutzers angeordnet ist und keine Hindernisse vorhanden sind, klingt die von dem Außenmikrofon 108 aufgenommene Sprache bzw. Stimme natürlich. Jedoch ist in diversen Ausführungsformen das Außenmikrofon 108 Umgebungsgeräuschen ausgesetzt, etwa dem Geräusch bzw. Rauschen, das von Wind, Fahrzeugen und diversen Hintergrundgeräuschen erzeugt wird. Wenn Umgebungsrauschen vorhanden ist, so reduziert dies die Qualität des Außenmikrofonsignals und kann eine Sprachkommunikation und Spracherkennung erschweren.
  • Das Innenmikrofon 106 ist im Inneren des Gehörgangs des Benutzers angeordnet. Wenn das eine oder die mehreren ITE-Module 202 eine gute Schalltrennung von der Außenumgebung bieten (beispielsweise eine gute Abdichtung bieten), dann wird die Stimme des Anwenders hauptsächlich über Körperleitung auf das Innenmikrofon 106 übertragen. Aufgrund der Anatomie des menschlichen Körpers wird der Hochfrequenzanteil der über den Körper geleiteten Stimme deutlich abgeschwächt im Vergleich zu dem niederfrequenten Anteil und fällt häufig bis unter eine vorbestimmte Rauschgrenze. Daher kann die von dem Innenmikrofon 106 aufgenommene Stimme häufig stumpf klingen. Der Grad des Abstumpfens und die Frequenzantwort, die von einem Benutzer wahrgenommen werden, können von der speziellen Knochenstruktur des Benutzers, dem speziellen Aufbau der eustachischen Röhre des Benutzers (die das Mittelohr mit der oberen Kehle verbindet) und anderen damit im Zusammenhang stehenden anatomischen Eigenschaften des Benutzers abhängen. Andererseits ist das Innenmikrofon 106 aufgrund der Schallisolation relativ frei von dem Einfluss des Umgebungsrauschens bzw. der Umgebungsgeräusche.
  • 3 zeigt ein Beispiel von Signalformen und von spektralen Verteilungen von Signalen 302 und 304, die entsprechend von dem Außenmikrofon 108 und dem Innenmikrofon 106 aufgenommen werden. Die Signale 302 und 304 enthalten die Stimme bzw. Sprache des Anwenders. Wie in diesem Beispiel gezeigt ist, hat die von dem Innenmikrofon 106 aufgenommene Stimme eine deutlich stärkere spektrale Neigung zu den tieferen Frequenzen. Der hochfrequente Anteil des Signals 304 ist in den beispielhaften Signalformen deutlich abgeschwächt und führt somit zu einer deutlich schmäleren effektiven Bandbreite im Vergleich zu dem Signal 302, das von dem Außenmikrofon aufgenommen wurde.
  • 4 zeigt ein weiteres Beispiel der Signalformen und der spektralen Verteilungen von Signalen 402 und 404, die entsprechend von dem Außenmikrofon 108 und dem Innenmikrofon 106 aufgenommen wurden. Die Signale 402 und 404 enthalten in diesem Beispiel nur Rauschen, das von Wind erzeugt wird. Der wesentliche Unterschied in den Signalen 402 und 404 zeigt an, dass ein Rauschen des Windes an dem Außenmikrofon 108 klar vorhanden ist, das aber in diesem Beispiel größtenteils von dem Innenmikrofon 106 abgeschirmt wird.
  • Die effektive Bandbreite und die spektrale Ausgewogenheit der von dem Innenmikrofon 106 aufgenommenen Sprache kann signifikant variieren in Abhängigkeit von Faktoren, etwa der Anatomie des Kopfes des Benutzers, den Spracheigenschaften bzw. Stimmeigenschaften des Benutzers und der Schallisolation, die durch das eine oder die mehreren ITE-Module 202 geschaffen wird. Selbst bei genau gleichem Benutzer und gleicher Kopfgarnitur können sich Bedingungen deutlich zwischen unterschiedlichen Benutzungsvorgängen unterscheiden. Eine der signifikantesten Variablen ist die Schallisolation, die durch das eine oder die mehreren ITE-Module 202 geschaffen wird. Wenn die Abdichtung des einen oder der mehreren ITE-Module 202 sehr ausgeprägt ist, dann erreicht die Stimme des Benutzers das Innenmikrofon hauptsächlich über die Körperleitung und die entsprechende Energie wird im Inneren des Gehörgangs gut zurückgehalten. Da aufgrund des dichten Abschlusses das Umgebungsrauschen beim Eindringen in den Gehörgang größtenteils abgeblockt wird, hat das Signal an dem Innenmikrofon ein sehr hohes Signal-Rausch-Verhältnis (SNR), jedoch häufig mit einer sehr begrenzten effektiven Bandbreite. Wenn der Schallaustausch zwischen der Außenumgebung und dem Gehörgang signifikant wird (beispielsweise aufgrund einer teilweisen Abdichtung des einen oder der mehreren ITE-Module 202), dann kann die Stimme des Benutzers das Innenmikrofon auch über die Luftleitung erreichen, so dass die wirksame Bandbreite verbessert wird. Wenn jedoch das Umgebungsrauschen in den Gehörgang eintritt und die über Körperleitung eingespeiste Stimme aus dem Gehörgang entweicht, dann kann auch das SNR an dem Innenmikrofon 106 abnehmen.
  • 5 zeigt noch ein weiteres Beispiel der Signalformen und spektralen Verteilungen von Signalen 502 und 504, die entsprechend von dem Außenmikrofon 108 und dem Innenmikrofon 106 aufgenommen werden. Die Signale 502 und 504 enthalten die Stimme bzw. Sprache des Benutzers. Das Innenmikrofonsignal 504 in 5 hat einen stärkeren Niederfrequenzanteil als das Innenmikrofonsignal 304 der 3, hat jedoch einen sehr starken Abfall nach 2,0-2,5 kHz. Andererseits hat das Innenmikrofonsignal 304 in 3 einen niedrigeren Pegel, hat jedoch in diesem Beispiel einen signifikanten Sprachanteil bis zu 4,0-4,5 kHz.
  • 6 zeigt eine Blockansicht des DSP 112, der zum Zusammenführen von Mikrofonsignalen gemäß diversen Ausführungsformen der vorliegenden Offenbarung geeignet ist. Die Signale xin und xex sind Signale, die entsprechend Klänge repräsentieren, die von dem Innenmikrofon 106 einerseits und dem Außenmikrofon 108 anderseits aufgenommen werden. Die Signale xin und xex müssen nicht notwendigerweise die Signale sein, die direkt von den jeweiligen Mikrofonen stammen; sie können die Signale repräsentieren, die direkt von den entsprechenden Mikrofonen stammen. Beispielsweise können die direkten Signalausgaben aus den Mikrofonen in gewisser Weise vorverarbeitet werden, beispielsweise können sie in ein synchronisiertes pulscodiertes Modulations-(PCM-) Format mit einer geeigneten Abtastfrequenz umgewandelt werden, wobei das umgewandelte Signal das Signal ist, das von dem Verfahren verarbeitet wird.
  • In dem Beispiel der 6 werden die Signale xin und xex zunächst durch Rauschüberwachungs/Rauschunterdrückungs-(NT/NR)-Module 602 und 604 verarbeitet, so dass eine kontinuierliche Abschätzung des Rauschpegels, der von jedem Mikrofon aufgenommen wird, erhalten wird. Optional kann die Rauschunterdrückung (NR) durch die NT/NR-Module 602 und 604 ausgeführt werden, indem der abgeschätzte Rauschpegel verwendet wird. In diversen Ausführungsformen werden die Mikrofonsignale xin und xex mit oder ohne NR und Rauschabschätzungen bzw. Abschätzungen des Rauschens (beispielsweise „Abschätzungen für externes Rauschen und SNR“, die von NT/NR 602 ausgegeben werden und/oder „Abschätzungen für inneres Rauschen und SNR“, die von NT/NR 604 ausgegeben werden) von den NT/NR-Modulen 602 und 604 zu einem Mikrofon-Spektralangleichungs-(MSA-) Modul 606 gesendet, in welchem der spektrale Angleichungsfilter adaptiv abgeschätzt und auf das Innenmikrofonsignal xin angewendet wird. Ein wesentlicher Zweck der MSA besteht darin, die an dem Innenmikrofon 106 aufgezeichnete Sprache an die Sprache anzugleichen, die von dem Außenmikrofon 108 aufgenommen wird, wobei dies innerhalb der effektiven Bandbreite des gehörganginternen Sprachsignals erfolgt.
  • Das Außenmikrofonsignal xex, das spektral angeglichene Innenmikrofonsignal xin,align und die abgeschätzten Rauschpegel an beiden Mikrofonen 106 und 108 werden dann zu einem Mikrofonsignal-Misch-(MSB-) Modul 608 gesendet, in welchem die beiden Mikrofonsignale in geeigneter Weise auf der Grundlage des aktuellen Signals und der Rauschbedingungen kombiniert werden, um ein einziges Ausgangssignal mit optimaler Sprachqualität bzw. Stimmqualität zu erzeugen.
  • Weitere Einzelheiten in Hinblick auf die Module in 6 sind in verschiedener Weise nachfolgend angegeben.
  • In diversen Ausführungsformen arbeiten die Module 602-608 (NT/NR, MSA und MSB) in einem Vollband-Bereich (ein Zeitbereich) oder einem gewissen Teilband-Bereich (Frequenzbereich). Für Ausführungsformen mit einem Modul, das in einem Teilband-Bereich arbeitet, wird eine geeignete Analyse-Filterbank (AFB) für die Eingabe in das Modul verwendet, um jedes Eingangssignal vom Zeitbereich in den Teilband-Bereich umzuwandeln. In einigen Ausführungsformen wird eine adaptive Synthese-Filterbank (SFB) bereitgestellt, um jedes Teilband-Ausgangssignal nach Bedarf in Abhängigkeit von dem Bereich des empfangenen Moduls zurück in den Zeitbereich umzuwandeln.
  • Zu Beispielen der Filterbanken gehören eine digitale Fourier-Transformations-(DFT-) Filterbank, eine modifizierte digitale Cosinus-Transformations-(MDCT) Filterbank, eine 1/3-Oktaven-Filterbank, eine Elementarwellen-Filterbank oder andere geeignete, durch Wahrnehmung motivierte Filterbanken. Wenn aufeinanderfolgende Module 602-608 in dem gleichen Teilband-Bereich arbeiten, können die dazwischen liegenden AFBs und SFBs im Hinblick auf maximale Effizienz und minimale Systembearbeitungszeit entfernt werden. Selbst wenn in einigen Ausführungsformen zwei aufeinanderfolgende Module 602-608 in unterschiedlichen Teilband-Bereichen arbeiten, kann ihre Synergie verwendet werden, indem die SFB des vorhergehenden Moduls und die AFB des nachfolgenden Moduls in Hinblick auf minimale Verarbeitungszeit und Rechenaufwand kombiniert werden. In diversen Ausführungsformen arbeiten alle Verarbeitungsmodule 602-608 in dem gleichen Teilband-Bereich.
  • Bevor die Mikrofonsignale jeweils die Module 602-608 erreichen, können sie durch geeignete Vorverarbeitungsmodule verarbeitet werden, etwa Gleichstrom-(DC)-Abblockfilter, Windgeräuschunterdrückung (WBM), AEC und dergleichen. In ähnlicher Weise kann das Ausgangssignal aus dem MSB-Modul 608 durch geeignete Nachverarbeitungsmodule weiter verarbeitet werden, etwa in Form statischer oder dynamischer Entzerrung (EQ) und durch automatische Verstärkungssteuerung (AGC). Des Weiteren können andere Verarbeitungsmodule in den Verarbeitungsablauf, der in 6 gezeigt ist, eingefügt werden, solange die eingefügten Module nicht die Funktionsweise der diversen Ausführungsformen der vorliegenden Technik stören.
  • Weitere Details der Verarbeitungsmodule
  • Rauschüberwachungs/Rauschunterdrückungs-(NT/NR-) Modul
  • Der vorrangige Zweck der NT/NR-Module 602 und 604 liegt darin, dass eine kontinuierliche bzw. aktuelle Abschätzung des Rauschens (Rauschpegel und SNR) der Mikrofonsignale erfolgt. Diese kontinuierlichen Abschätzungen werden ferner nachfolgenden Modulen zur Verfügung gestellt, um ihre Funktionen zu ermöglichen. Normalerweise ist eine Rauschüberwachung effektiver, wenn sie in einem Teilband-Bereich mit ausreichender Frequenzauflösung ausgeführt wird. Wenn beispielsweise eine DFT-Filterbank verwendet wird, sind DFT-Größen von 128 und 256 für Abtastraten von entsprechend 8 und 16 kHz bevorzugt. Dies führt zu 62,5 Hz/Band, das dem Erfordernis für niedrigere Frequenzbänder (< 750 Hz) genügt. Die Frequenzauflösung kann für Frequenzbänder über 1 kHz reduziert werden. Für diese höheren Frequenzbänder kann die erforderliche Frequenzauflösung im Wesentlichen proportional zur Mittelfrequenz des Bandes sein.
  • In diversen Ausführungsformen liefert ein Teilband-Rauschpegel mit ausreichender Frequenzauflösung eine reichere Information in Hinblick auf das Rauschen. Da unterschiedliche Arten von Rauschen unterschiedliche spektrale Verteilung haben können, kann das Rauschen mit dem gleichen Vollband-Pegel einen unterschiedlichen Einfluss auf die Wahrnehmung haben. Ein Teilband-SNR ist auch robuster in Hinblick auf eine Entzerrung, die an dem Signal ausgeführt wird, so dass ein Teilband-SNR eines Innenmikrofonsignals, das gemäß der vorliegenden Technik abgeschätzt wird, weiterhin gültig bleibt, nachdem die spektrale Angleichung von dem nachfolgenden MSA-Modul ausgeführt ist.
  • Viele Rauschunterdrückungsverfahren beruhen auf einer wirksamen Überwachung des Rauschpegels und können daher für das NT/NR-Modul eingesetzt werden. Die Rauschunterdrückung, die in dieser Stufe ausgeführt wird, kann die Qualität von Mikrofonsignalen, die nachfolgenden Modulen zugeleitet werden, verbessern. In einigen Ausführungsformen werden die Abschätzungen, die in den NT/NR-Modulen erhalten werden, mit Information kombiniert, die in anderen Modulen erhalten wird, um eine Rauschunterdrückung in einer späteren Stufe auszuführen. Beispielsweise und ohne darauf einschränken zu wollen, sind geeignete Rauschunterdrückungsverfahren beschrieben in Ephraim and Malah, „Speech Enhancement Using a Minimum Mean-Square Error Short-Time Spectral Amplitude Estimator“, IEEE Transactions on Acoustics, Speech, and Signal Processing, Dezember 1984, das hiermit in seiner Gesamtheit für die obigen Zwecke mit eingeschlossen ist.
  • Mikrofonsprektumsangleichungs-(MSA-) Modul
  • In diversen Ausführungsformen besteht der hauptsächliche Zweck des MSA-Moduls 606 darin, Stimmsignale bzw. Sprachsignale, die von dem Innenmikrofon und dem Außenmikrofon aufgenommen werden, spektral anzugleichen, um Signale für die nahtlose Mischung der beiden Sprachsignale in dem nachfolgenden MSB-Modul 608 zu ermöglichen. Wie zuvor erläutert ist, ist die von dem Außenmikrofon 108 aufgenommene Sprache typischerweise besser spektral ausgeglichen und hat daher einen natürlicheren Klang. Andererseits kann die von dem Innenmikrofon 106 aufgenommene Sprache tendenziell einen Verlust an Hochfrequenzinhalt aufweisen. Daher agiert das MSA-Modul 606 in dem Beispiel der 6 derart, dass es die Stimme bzw. Sprache am Innenmikrofon 106 spektral an die Stimme bzw. Sprache an dem Außenmikrofon 108 innerhalb der effektiven Bandbreite der Sprache am Innenmikrofon angleicht. Obwohl die Angleichung der spektralen Amplitude der wesentliche Zweck in diversen Ausführungsformen ist, kann die Angleichung der spektralen Phase auch dazu dienen, optimale Ergebnisse zu erreichen. Konzeptionell kann die Mikrofonspektrumsangleichung (MSA) durch Anwenden eines spektralen Angleichungsfilters (HSA) an das Innenmikrofonsignal erreicht werden: X i n , a l i g n ( f ) = H S A ( f ) X i n ( f )
    Figure DE112016004161T5_0001
    wobei Xin(f) und Xin,align(f) die Frequenzantworten entsprechend des ursprünglichen und des spektral angeglichenen Innenmikrofonsignals sind. Der spektrale Angleichungsfilter muss in diesem Beispiel das folgende Kriterium erfüllen: H S A ( f ) = { X e x , v o i c e ( f ) X i n , v o i c e ( f ) , f Ω i n , v o i c e δ , f Ω i n , v o i c e
    Figure DE112016004161T5_0002
    wobei Ωin,voice die effektive Bandbreite der Stimme bzw. Sprache in dem Gehörgang ist, Xex,voice(f) und Xin,voice(f) die Frequenzantworten der von entsprechend dem Außenmikrofon und dem Innenmikrofon aufgenommenen Sprachsignale sind. In diversen Ausführungsformen ist der genaue Wert von δ in Gleichung (2) nicht kritisch, jedoch sollte er eine ausreichend kleine Zahl sein, um eine Verstärkung des Rauschens in dem Gehörgang zu vermeiden. Der spektrale Angleichungsfilter kann im Zeitbereich oder in einem beliebigen Teilband-Bereich eingerichtet werden. Abhängig von dem physikalischen Ort des Außenmikrofons kann ein Hinzufügen einer geeigneten Verzögerung zu dem Außenmikrofonsignal erforderlich sein, um die Kausalität des erforderlichen spektralen Angleichungsfilters sicherzustellen.
  • Ein intuitives Verfahren zum Erhalten eines spektralen Angleichungsfilters besteht darin, die spektralen Verteilungen der Sprache am Außenmikrofon und am Innenmikrofon zu messen und einen Filter auf der Grundlage dieser Messungen zu erstellen. Dieses intuitive Verfahren könnte in gut gesteuerten Umgebungen gut funktionieren. Wie jedoch zuvor erläutert ist, sind die spektrale Verteilung der Sprache und das Rauschen in dem Gehörgang äußerst variabel und von Faktoren abhängig, die spezifisch für Benutzer, Geräte und wie gut die Geräte in das Ohr des Benutzers bei speziellen Gelegenheiten passen (beispielsweise der Abdichtung) abhängig. Die Gestaltung des Angleichungsfilters auf der Grundlage des Durchschnittes aller Bedingungen würde nur unter gewissen Bedingungen gut funktionieren. Andererseits führt die Gestaltung des Filters auf der Grundlage spezieller Bedingungen zu dem Risiko einer Überanpassung, was zu einer übermäßigen Verzerrung und zu Rauschfehlersignalen führen kann. Somit sind unterschiedliche Vorgehensweisen für die Gestaltung erforderlich, um den gewünschten Ausgleich zu erreichen.
  • Cluster-Verfahren
  • In diversen Ausführungsformen werden Sprachsignale bzw. Stimmsignale, die von dem Außenmikrofon und dem Innenmikrofon aufgenommen werden, gesammelt, so dass eine Abdeckung für diverse Anwendergruppen, Geräte und Passbedingungen erreicht wird. Es kann ein empirischer spektraler Angleichungsfilter aus jedem dieser Sprachsignalpaare abgeschätzt werden. Heuristische Ansätze oder datengestützte Ansätze können dann eingesetzt werden, um diese empirischen Filter in Cluster bzw. Gruppen einzustufen und einen entsprechenden Filter für jeden Cluster zu trainieren. Gemeinsam bilden in den diversen Ausführungsformen die repräsentativen Filter aller Cluster eine Gruppe aus Kandidatenfiltern bzw. potentiellen Filtern. Während des Echtzeitbetriebs kann eine grobe Abschätzung der gewünschten spektralen Angleichungsfilterantwort erhalten und verwendet werden, um den am besten geeigneten Kandidatenfilter auszuwählen, der auf das Innenmikrofonsignal anzuwenden ist.
  • Alternativ wird in anderen Ausführungsformen eine Gruppe aus Merkmalen aus den gesammelten Sprachsignalpaaren zusammen mit den empirischen Filtern extrahiert. Diese Merkmale sollten besser beobachtbar sein und mit der Variabilität der idealen Antwort eines spektralen Angleichungsfilters korrelieren, etwa die Grundfrequenz der Stimme, die spektrale Steigung des Innenmikrofonsignals, die Lautstärke der Stimme und das SNR im Inneren des Gehörgangs. In einigen Ausführungsformen werden diese Eigenschaften dem Prozess zur Einstufung in Cluster hinzugefügt, so dass ein repräsentativer Filter und ein repräsentativer Eigenschaftenvektor für jeden Cluster trainiert werden. Während des Echtzeitbetriebs kann die gleiche Merkmalsgruppe extrahiert und mit diesen repräsentativen Eigenschaftenvektoren verglichen werden, um die beste Übereinstimmung zu ermitteln. In diversen Ausführungsformen wird dann der Kandidatenfilter, der aus dem gleichen Cluster wie der Eigenschaftenvektor mit der besten Übereinstimmung ist, auf das Innenmikrofonsignal angewendet.
  • Beispielhaft und ohne darauf einschränken zu wollen, ist ein anschauliches Cluster-Verfolgungsverfahren beschrieben in der US-Patentanmeldung mit der Nr. 13/492,780 mit dem Titel „Noise Reduction Using Multi-Feature Cluster Tracker“ (am 14. April 2015 als US-Patent mit der Nr. 9,008,329 erteilt), das hiermit für die obigen Zwecke in seiner Gesamtheit durch Bezugnahme mit eingeschlossen ist.
  • Adaptives Verfahren
  • Im Gegensatz zum Auswählen aus einer Gruppe aus vortrainierten Kandidaten kann eine Vorgehensweise mit adaptiver Filterung eingesetzt werden, um den spektralen Angleichungsfilter aus den Außenmikrofon- und Innenmikrofonsignalen abzuschätzen. Da die Stimmkomponenten an den Mikrofonen nicht direkt beobachtbar sind und die effektive Bandbreite der Stimme bzw. der Sprache in dem Gehörgang ungewiss ist, wird das in Gl. (2) angegebene Kriterium für praktische Zwecke wie folgt modifiziert: H ^ S A ( f ) = E { X e x ( f ) X i n * ( f ) } E { | X i n ( f ) | 2 }
    Figure DE112016004161T5_0003
    wobei das hochgestellte * das komplex Konjugierte repräsentiert und E{·} einen statistischen Erwartungswert repräsentiert. Wenn der Gehörgang wirksam von der Außenschallumgebung abgeschirmt ist, dann ist das Sprachsignal der einzige Beitrag zu dem Kreuzkorrelationsterm im Zähler der Gl. (3) und der Autokorrelationsterm im Nenner der Gl. (3) wäre die Leistung der Sprache am Innenmikrofon mit seiner effektiven Bandbreite. Außerhalb seiner effektiven Bandbreite ist der Term im Nenner die Leistung des Grundrauschens an dem Innenmikrofon und der Term im Zähler geht gegen 0. Es kann gezeigt werden, dass der auf der Grundlage der Gl. (3) abgeschätzte Filter die Abschätzung gemäß dem minimalen mittleren quadratischen Fehler (MMSE) des in der Gl. (2) angegebenen Kriteriums ist.
  • Wenn der Schallaustausch zwischen der Außenumgebung und dem Gehörgang signifikant wird, dann ist der auf der Grundlage der Gl. (3) abgeschätzte Filter nicht mehr länger eine MMSE-Abschätzung der Gl. (2), da das in den Gehörgang eingedrungene Rauschen bzw. die Geräusche ebenfalls zu der Kreuzkorrelation zwischen den Mikrofonsignalen beitragen. Als Folge davon hat die Abschätzung in Gl. (3) eine bi-modale Verteilung, wobei der Modus, der mit der Sprache, die die unverschobene Abschätzung repräsentiert, verknüpft ist und der Modus, der mit Rauschen verknüpft ist, zu der Verschiebung des Grundwertes beitragen. Die Minimierung des Einflusses der Schallübertragung kann eine geeignete Adaptionssteuerung erforderlich machen. Beispielhafte Ausführungsformen zur Bereitstellung dieser geeigneten Adaptionssteuerung sind nachfolgend detailliert beschrieben.
  • Implementierungen im Zeitbereich
  • In einigen Ausführungsformen kann der in Gl. (3) definierte spektrale Angleichungsfilter in die Darstellung im Zeitbereich wie folgt umgewandelt werden: h S A = E { x i n * ( n ) x i n T ( n ) } 1   E { x i n * ( n ) x e x ( n ) }
    Figure DE112016004161T5_0004
    wobei hSA ein Vektor ist, der aus den Koeffizienten eines Filters mit finiter Impulsantwort der Länge N (FIR) besteht: h S A = [ h S A ( 0 ) h S A ( 1 ) Λ h S A ( N 1 ) ] T
    Figure DE112016004161T5_0005
    und xex(n) und xin(n) sind Signalvektoren, die aus den letzten N Abtastwerten der entsprechenden Signale zum Zeitpunkt n bestehen: x ( n ) = [ x ( n ) x ( n 1 ) Λ x ( n N + 1 ) ] T
    Figure DE112016004161T5_0006
    wobei das hochgestellte T einen transponierten Vektor oder eine transponierte Matrix repräsentiert und das hochgestellte H eine hermitisch transponierte Größe repräsentiert. Das spektral angeglichene Innenmikrofonsignal kann erhalten werden, indem der spektrale Angleichungsfilter auf das Innenmikrofonsignal angewendet wird: x i n , a l i g n ( n ) = x i n T ( n ) h S A
    Figure DE112016004161T5_0007
  • In diversen Ausführungsformen können viele adaptive Filteransätze angewendet werden, um den in Gl. (4) definierten Filter einzurichten. Ein derartiger Ansatz ist: h ^ S A ( n ) = R i n , i n 1 ( n ) r e x , i n ( n )
    Figure DE112016004161T5_0008
    wobei ĥSA(n) die Filterabschätzung zum Zeitpunkt n ist. Rin,in(n) und rex,in(n) sind die aktuellen Abschätzungen von entsprechend E { x in * ( n ) x in T ( n ) }
    Figure DE112016004161T5_0009
    und E { x in * ( n ) x ex ( n ) }
    Figure DE112016004161T5_0010
    Diese aktuellen Abschätzungen können wie folgt berechnet werden: R i n , i n ( n ) = R i n , i n ( n 1 ) + α S A ( n ) ( x i n * ( n ) x i n T ( n ) R i n , i n ( n 1 ) )
    Figure DE112016004161T5_0011
    r e x , i n ( n ) = r e x , i n ( n 1 ) + α S A ( n ) ( x i n * ( n ) x e x ( n ) r e x , i n ( n 1 ) )
    Figure DE112016004161T5_0012
    wobei αSA(n) ein adaptiver Glättungsfaktor ist, der definiert ist als: α S A ( n ) = α S A 0 Γ S A ( n )
    Figure DE112016004161T5_0013
  • Die Basisglättungskonstante αSA 0 bestimmt, wie schnell die aktuellen Abschätzungen aktualisiert werden. Sie nimmt einen Wert zwischen 0 und 1 an, wobei der größere Wert einem kleineren Zeitfenster für die grundlegende Glättung entspricht. Der Sprachwahrscheinlichkeitsschätzung ΓSA(n) nimmt ebenfalls Werte zwischen 0 und 1 an, wobei 1 Gewissheit der Sprachdominanz anzeigt und 0 Gewissheit des Fehlens der Sprache angibt. Diese Vorgehensweise liefert die Adaptionssteuerung, die erforderlich ist, um den Einfluss einer Schallkopplung zu minimieren und den abgeschätzten spektralen Angleichungsfilter unverschoben zu lassen. Details über ΓSA(n) werden nachfolgend weiter erläutert.
  • Die in Gl. (8) gezeigte Filteradaption kann eine Matrixinversioin erfordern. Wenn die Filterlänge N anwächst, wird dies sowohl rechentechnisch aufwändig als auch numerisch herausfordernd. In einigen Ausführungsformen wird ein adaptiver Filter mit den kleinsten mittleren Quadraten (LMS) für den in Gl. (4) definierten Filter angewendet: h ^ S A ( n + 1 ) = h ^ S A ( n ) + μ S A Γ S A ( n ) x i n ( n ) 2 x i n * ( n ) e S A ( n )
    Figure DE112016004161T5_0014
    wobei µSA eine konstante Adaptionsschrittweite zwischen 0 und 1 ist, ||xin(n)|| die Norm des Vektors xin(n) ist, und eSA(n) der spektrale Angleichungsfehler ist, der definiert ist als: e S A ( n ) = x e x ( n ) x i n T ( n ) h ^ S A ( n )
    Figure DE112016004161T5_0015
  • Ähnlich zu den in den Gl. (8) - (11) gezeigten direkten Ansätzen kann die Sprachwahrscheinlichkeitsabschätzung ΓSA(n) benutzt werden, um die Filteranpassung so zu steuern, dass der Einfluss der Schallkopplung auf die Filteranpassung minimiert wird.
  • Im Vergleich zu den beiden Ansätzen konvergiert die LMS langsamer, ist aber rechentechnisch effizient und numerisch stabil. Dieser Kompromiss tritt signifikanter hervor, wenn die Filterlänge größer wird. Andere Arten von adaptiven Filtertechniken, etwa eine schnelle affine Projektion (FAP) oder eine Gitter-Leiter-Struktur, können ebenfalls eingesetzt werden, um unterschiedliche Kompromisse zu erreichen. Es ist wesentlich, einen effektiven Adaptionssteuermechanismus für diese anderen Techniken zu gestalten. In diversen Ausführungsformen kann die Implementierung in einem geeigneten Teilband-Bereich zu einem besseren Kompromiss in Hinblick auf Konvergenz, Recheneffizienz und numerischer Stabilität führen. Implementierungen im Teilband-Bereich sind nachfolgend weiter detaillierter beschrieben.
  • Implementierungen im Teilband-Bereich
  • Wenn Signale im Zeitbereich in einen Teilband-Bereich umgewandelt werden, ist die effektive Bandbreite jedes Teilbandes nur ein Teil der Vollband-Bandbreite. Daher wird für gewöhnlich eine Abwärts-Abtastung ausgeführt, um die Redundanz zu entfernen, und der Faktor für die Abwärtsabtastung D nimmt typischerweise mit der Frequenzauflösung zu. Nach der Umwandlung der Mikrofonsignale xex(n) und xin(n) in einen Teilband-Bereich werden die Signale an der k-ten Stelle als xex,k(m) und xin,k(m) bezeichnet, wobei m ein Abtastindex (oder ein Blockindex) in der abwärts abgetasteten diskreten Zeitskala ist und typischerweise als m = n/ D definiert ist.
  • Der in Gl. (3) definierte spektrale Angleichungsfilter kann wie folgt in eine Darstellung im Teilband-Bereich umgewandelt werden: h S A , k = E { x i n , k * ( m ) x i n , k T ( m ) } 1   E { x i n , k * ( m ) x e x , k ( m ) }  
    Figure DE112016004161T5_0016
    die parallel in jedem der Teilbänder (k = 0,1, ... ,K) eingerichtet wird. Der Vektor hSA,k besteht aus den Koeffizienten eines FIR-Filters mit der Länge M für das Teilband k: h S A , k = [ h S A , k ( 0 ) h S A , k ( 1 ) Λ h S A , k ( M 1 ) ] T
    Figure DE112016004161T5_0017
    und xex,k(m) und xin,k(m) sind Signalvektoren, die aus den letzten M Abtastwerten der entsprechenden Teilband-Signale zum Zeitpunkt m bestehen: x k ( m ) = [ x k ( m ) x k ( m 1 ) Λ x k ( x M + 1 ) ] T
    Figure DE112016004161T5_0018
  • In diversen Ausführungsformen wird aufgrund der Abwärtsabtastung die Filterlänge, die in dem Teilband-Bereich zur Abdeckung einer ähnlichen Zeitspanne erforderlich ist, wesentlich kleiner als in dem Zeitbereich. Typischerweise ist die Beziehung zwischen M und N gegeben durch M= [ N/D ] .
    Figure DE112016004161T5_0019
    Wenn die Teilband-Abtastrate (Blockrate) gleich oder langsamer als 8 Millisekunden (ms) pro Block ist, wie dies typischerweise für die Sprachsignalverarbeitung der Fall ist, dann ist aufgrund der Nähe aller Mikrofone M häufig bei einem Wert von 1 für Anwendungen mit Kopfgarnitur. In diesem Falle kann die Gl. (14) vereinfacht werden zu: h S A , k = E { x e x , k ( m ) x i n , k * ( m ) } / E { | x i n , k ( m ) | 2 }
    Figure DE112016004161T5_0020
    wobei hSA,k ein komplexer Filter mit Einzelabgriff ist. Das spektral angeglichene Innenmikrofonsignal im Teilband kann erhalten werden, indem der spektrale Angleichungsfilter im Teilband auf das Teilband-Innenmikrofonsignal angewendet wird: x i n , a l i g n , k ( m ) = h S A , k x i n , k ( m )
    Figure DE112016004161T5_0021
  • Die Implementierung des direkten adaptiven Filters des in Gl. (17) definierten Teilband-Filters kann wie folgt formuliert werden: h ^ S A , k ( m ) = r e x , i n , k ( m ) / r i n , i n , k ( m )
    Figure DE112016004161T5_0022
    wobei ĥSA,k(m) die Filterabschätzung im Block m ist, und rin,in,k (m) und rex,in,k(m) die aktuellen bzw. kontinuierlichen Abschätzungen von entsprechend E{|xin,k(m)|2} und E { x ex ,k ( m ) x in ,k * ( m ) }
    Figure DE112016004161T5_0023
    sind. Diese aktuellen Abschätzungen können wie folgt berechnet werden: r i n , i n , k ( m ) = r i n , i n , k ( m 1 ) + α S A , k ( m ) ( | x i n , k ( m ) | 2 r i n , i n , k ( m 1 ) )
    Figure DE112016004161T5_0024
    r e x , i n , k ( m ) = r e x , i n , k ( m 1 ) + α S A , k ( m ) ( x e x , k ( m ) x i n , k * ( m ) r e x , i n , k ( m 1 ) )
    Figure DE112016004161T5_0025
    wobei αSA,k (m) ein adaptiver Glättungsfaktor für das Teilband ist, der wie folgt definiert ist α S A , k ( m ) = α S A 0, k Γ S A , k ( m )
    Figure DE112016004161T5_0026
  • Die Teilband-Basisglättungskonstante αSA0,k bestimmt, wie schnell die aktuellen Abschätzungen in jedem Teilband aktualisiert werden. Sie nimmt einen Wert zwischen 0 und 1 an, wobei der größere Wert einem kleineren Basisglättungszeitfenster entspricht. Die Teilband-Sprachwahrscheinlichkeitsabschätzung ΓSA,k(m) nimmt ebenfalls Werte zwischen 0 und 1 an, wobei 1 die Gewissheit der Sprachdominanz anzeigt und 0 die Gewissheit anzeigt, dass Sprache in diesem Teilband nicht vorhanden ist. Ähnlich zu dem Falle im Zeitbereich liefert dies die Adaptionssteuerung, die erforderlich ist, um den Einfluss von Schallkopplung zu minimieren und den abgeschätzten spektralen Angleichungsfilter unverschoben zu lassen. Da jedoch Sprachsignale häufig ungleichmäßig über die Frequenz verteilt sind, bietet die Fähigkeit, die Adaption in jedem Teilband separat zu steuern, die Flexibilität bezüglich einer feineren Steuerung und damit ein besseres Leistungspotential. Ferner wird die Matrixinversion in Gl. (8) auf einen einfachen Divisionsvorgang in Gl. (19) reduziert, so dass die rechentechnischen und numerischen Anforderungen deutlich reduziert werden. Die Details über ΓSA,k(m) werden nachfolgend weiter erläutert.
  • Ähnlich zu dem Falle im Zeitbereich kann eine adaptive LMS-Filterimplementierung für den in Gl. (17) definierten Filter angewendet werden: h ^ S A , k ( m + 1 ) = h ^ S A , k ( m ) + μ S A Γ S A , k ( m ) x i n , k ( m ) 2 e S A , k ( m ) x i n , k * ( m )
    Figure DE112016004161T5_0027
    wobei µSA eine gleichbleibende Adaptionsschrittweite zwischen 0 und 1 ist, x in ,k ( m )
    Figure DE112016004161T5_0028
    die Norm von xin,k(m) ist, und eSA,k(m) der spektrale Angleichungsfehler im Teilband ist und wie folgt definiert ist: e S A , k ( m ) = x e x , k ( m ) h ^ S A , k ( m ) x i n , k ( m )
    Figure DE112016004161T5_0029
  • Ähnlich zu dem in den Gl. (19) - (22) gezeigten direkten Ansatz kann die Teilband-Sprachwahrscheinlichkeitsabschätzung ΓSA,k(m) verwendet werden, um die Filteranpassung zur Minimierung des Einflusses der Schallkopplung auf die Filteranpassung zu steuern. Da ferner dies ein LMS-Filter mit Einzelabgriff ist, kann die Konvergenz deutlich schneller sein als für den entsprechenden Filter im Zeitbereich, der in Gl. (12) - (13) gezeigt ist.
  • Sprachwahrscheinlichkeitsabschätzung
  • Die Sprachwahrscheinlichkeitsabschätzung ΓSA(n) in Gl. (11) und (12) und die Teilband-Sprachwahrscheinlichkeitsabschätzung ΓSA,k(m) in Gl. (22) und (23) können eine Adaptionssteuerung für die entsprechenden adaptiven Filter bereitstellen. Es gibt viele Möglichkeiten, bei der Formulierung der Teilband-Wahrscheinlichkeitsabschätzung. Ein derartiges Beispiel ist: Γ S A , k ( m ) = ξ e x , k ( m ) ξ i n , k ( m ) min ( | x i n , k ( m ) h ^ S A , k ( m ) x e x , k ( m ) | γ , 1 )
    Figure DE112016004161T5_0030
    wobei ξex,k(m) und ξin,k(m) die Signalverhältnisse für die Teilband-Signale xex,k(m) und xin,k(m) sind. Diese können unter Anwendung der aktuellen Rauschleistungsabschätzungen PNz,ex,k(m), PNZ,in,k(m) oder SNR-Abschätzungen (SNRex,k(m), SNRex,k(m)) berechnet werden, die von den NT/NR-Modulen 602 bereitgestellt werden, etwa in Form: ξ ( m ) = SNR k ( m ) SNR k ( m ) + 1  oder max  ( 1 P NZ ,k ( m ) | x k ( m ) | 2 ,0 )
    Figure DE112016004161T5_0031
  • Wie zuvor erläutert ist, zeigt die Abschätzung des spektralen Angleichungsfilters in Gl. (3) eine bi-modale Verteilung, wenn es eine signifikante Schallkopplung gibt. Da der Modus, der mit der Sprache in Zusammenhang steht, generell einen kleineren bedingten Mittelwert hat als der Modus, der mit dem Rauschen in Zusammenhang steht, hilft der dritte Term in Gl. (25) dabei, den Einfluss des Rauschmodus auszuschließen.
  • Für die Sprachwahrscheinlichkeitsabschätzung ΓSA(n) besteht eine Option darin, einfach die Komponenten in Gleichung (25) durch ihre Vollband-Entsprechungen zu ersetzen. Da jedoch die Leistung der Schallsignale tendenziell sich in dem unteren Frequenzbereich konzentriert, führt die Anwendung einer derartigen Entscheidung für die Zeitbereichsadaptionssteuerung tendenziell zu einer nicht guten Arbeitsweise im höheren Frequenzbereich. Bei Betrachtung der begrenzten Bandbreite der Sprache des Innenmikrofons 106 führt dies häufig zur Volatilität der Hochfrequenzantwort des abgeschätzten spektralen Angleichungsfilters. Daher führt die Verwendung einer wahrnehmungsbasierten Frequenzgewichtung in diversen Ausführungsformen zur Hervorhebung der Hochfrequenzleistung bei der Berechnung des Vollband-SNR zu einem besser ausgewogenen Leistungsverhalten bezüglich der Frequenz. Alternativ kann die Verwendung eines gewichteten Mittelwerts der Teilband-Sprachwahrscheinlichkeitsabschätzungen als die Sprachwahrscheinlichkeitsabschätzung ebenfalls eine ähnliche Wirkung erreichen.
  • Mikrofonsignal-Misch-(MSB-) Modul
  • Der Hauptzweck des MSB-Moduls 608 besteht darin, das Außenmikrofonsignal xex(n) und das spektral angeglichene Innenmikrofonsignal xin,align(n) zu kombinieren, um ein Ausgangssignal mit optimalem Kompromiss zwischen Rauschunterdrückung und Sprachqualität zu erzeugen. Dieser Vorgang kann entweder im Zeitbereich oder im Teilband-Bereich eingerichtet werden. Während das Mischen im Zeitbereich eine einfache und intuitive Art des Mischens der zwei Signale bietet, bietet das Mischen im Teilband-Bereich eine größere Steuerungsflexibilität und somit ein höheres Potential zum Erreichen eines besseren Kompromisses zwischen Rauschunterdrückung und Sprachqualität.
  • Mischung im Zeitbereich
  • Das Mischen im Zeitbereich kann wie folgt als Formel dargestellt werden: s o u t ( n ) = g S B x i n , a l i g n ( n ) + ( 1 g S B ) x e x ( n )
    Figure DE112016004161T5_0032
    wo gSB das Signalmischgewicht für das spektral angeglichene Innenmikrofonsignal ist, das den Wert zwischen 0 und 1 annimmt. Es kann beobachtet werden, dass die Gewichte für xex(n) und xin,align(n) sich stets zu 1 summieren. Da die beiden Signale innerhalb der effektiven Bandbreite der Sprache in dem Gehörgang spektral angeglichen sind, sollte die Sprache in dem gemischten Signal innerhalb dieser effektiven Bandbreite bei Änderung des Gewichts konsistent bleiben. Dies ist der wesentliche Vorteil des Ausführens der Amplituden- und Phasenangleichung in dem MSA-Modul 606.
  • Idealerweise sollte gSB in ruhigen Umgebungen gleich 0 sein, so dass das Außenmikrofonsignal dann als das Ausgangssignal verwendet werden könnte, um eine natürliche Sprachqualität zu erhalten. Andererseits sollte gSB gleich 1 in sehr rauschbehafteten bzw. mit Nebengeräuschen behafteten Umgebungen sein, so dass das spektral angeglichene Innenmikrofonsignal dann als das Ausgangssignal verwendet werden sollte, um den Vorteil seines reduzierten Rauschens aufgrund der Schallisolation in Bezug auf die Außenumgebung auszunutzen. Wenn die Umgebung von ruhig zu laut übergeht, nimmt der Wert von gSB zu, und das gemischte Ausgangssignal verschiebt sich von einem Außenmikrofon in Richtung zu einem Innenmikrofon. Dies führt ebenfalls zu einem allmählichen Verlust des höherfrequenten Sprachanteils und somit kann die Sprache einen stumpfen Klang annehmen.
  • Der Übergangsvorgang für den Wert von gSB kann diskret sein und kann durch die Abschätzung des Rauschpegels an dem Außenmikrofon (PNz,ex) wesentlich beeinflusst sein, die von dem NT/NR-Modul 602 geliefert wird. Beispielsweise kann der Bereich des Rauschpegels in (L+1) Zonen unterteilt werden, wobei Zone 0 die ruhigsten Bedingungen und Zone L die lautesten Bedingungen abdeckt. Der obere und der untere Schwellenwert für diese Zonen könnten den folgenden Bedingungen genügen: T S B , H i ,0 < T S B , H i ,1 < Λ < T S B , H i , L 1 T S B , L o ,1 < T S B , L o ,2 < Λ < T S B , L o , L
    Figure DE112016004161T5_0033
    wobei TSB,Hi,l und TSB,Lo,l der obere und der untere Schwellenwert der Zone l sind, mit l = 0,1, ... ,L. Es sollte beachtet werden, dass es keine untere Grenze für die Zone 0 und keine obere Grenze für die Zone L gibt. Diese Schwellenwerte könnten auch der Bedingung genügen: T S B , L o , l + 1 T S B , H i , l T S B , L o , l + 2
    Figure DE112016004161T5_0034
    so dass es Überlappungen zwischen benachbarten Zonen, aber nicht zwischen nicht benachbarten Zonen gibt. Diese Überlappungen dienen als Hysterese, die eine Signalverzerrung aufgrund eines übermäßigen Umschaltens zwischen Zonen reduziert. Für jede dieser Zonen kann ein Kandidat des gSB-Wertes festgelegt werden. Dieser Kandidat sollte der Bedingung genügen: g S B ,0 = 0 g S B ,1 g S B ,2 Λ g S B , L 1 g S B , L = 1
    Figure DE112016004161T5_0035
  • Da sich die Rauschbedingungen mit deutlich kleinerer Geschwindigkeit ändern als die Abtastfrequenz, können die Mikrofonsignale in aufeinanderfolgende Blöcke aus Abtastwerten unterteilt werden, und es kann eine aktuelle bzw. kontinuierliche Abschätzung eines Rauschpegels an einem Außenmikrofon für jeden Block verfolgt bzw. überwacht werden, der als PNZ,ex(m) bezeichnet ist, wobei m der Blockindex ist. Idealerweise sollte eine auf Wahrnehmung beruhende Frequenzgewichtung angewendet werden, wenn die geschätzte Rauschspektralleistung in die Vollband-Rauschpegelabschätzung mit aufgenommen wird. Dies würde dazu führen, dass PNZ,ex(m) besser mit dem durch Wahrnehmung hervorgerufenen Einfluss des aktuellen Umgebungsrauschens korreliert. Indem die Rauschzone bei Block m als ΛSB(m) bezeichnet wird, kann ein Algorithmus auf Basis einer Zustandsmaschine für das MSB-Modul 608 definiert werden wie folgt:
    1. 1. Initialisieren des Blocks 0 als eine Rauschzone 0, das heißt, ΛSB(0) = 0.
    2. 2. Wenn der Block (m-1) in der Rauschzone l liegt, das heißt, ΛSB(m-1) = l, dann wird die Rauschzone für den Block m, ΛSB(m), ermittelt durch Vergleich der Rauschpegelabschätzung PNZ,ex(m) mit den Schwellenwerten der Rauschzone l: Λ SB ( m ) = { l + 1 , wenn P NZ ,ex ( m ) > T SB ,Hi ,l , l L l - 1 , wenn P NZ ,ex ( m ) < T SB ,Lo ,l , l 0 l , ansonsten
      Figure DE112016004161T5_0036
    3. 3. Festlegen des Mischgewichts für xin,align(n) in Block m als einen Kandidaten in der Zone ASB(m): g S B ( m ) = g S B , Λ S B ( m )
      Figure DE112016004161T5_0037
      und Verwenden des Gewichts zur Berechnung des gemischten Ausgangssignals für den Block m auf der Grundlage der Gl. (27).
    4. 4. Zurückkehren zu Schritt 2 für den nächsten Block.
  • Alternativ kann der Übergangsvorgang für den Wert von gSB kontinuierlich sein. Anstelle der Unterteilung des Bereichs einer Grundrauschabschätzung in Zonen und einer Zuweisung eines Mischgewichts in jeder dieser Zonen kann die Beziehung zwischen der Rauschpegelabschätzung und dem Mischgewicht als eine kontinuierliche Funktion definiert werden: g S B ( m ) = f S B ( P N Z , e x ( m ) )
    Figure DE112016004161T5_0038
    wobei fSB (•) eine nicht kleiner werdende Funktion von PNz,ex(m) ist, die einen Bereich zwischen 0 und 1 hat. In gewissen Ausführungsformen kann eine andere Information, etwa Rauschpegelabschätzungen aus vorhergehenden Blöcken und SNR-Abschätzungen, in den Vorgang der Ermittlung des Wertes von gSB(m) mit eingeschlossen werden. Dies kann auf der Grundlage von datengesteuerten Ansätzen (Maschinenlernen) oder heuristischen Regeln erreicht werden. Beispielsweise und ohne darauf einschränken zu wollen, sind Beispiele diverser Ansätze mit Maschinenlernen und heuristischen Regeln in der US-Patentanmeldung mit der Nr. 14/046,551 beschrieben mit dem Titel „Noise Suppression for Speech Processing Based on Machine-Learning Mask Estimation“, die am 4. Oktober 2013 eingereicht wurde.
  • Mischen im Teilband-Bereich
  • Das Mischen im Teilband-Bereich liefert einen einfachen und intuitiven Mechanismus zum Kombinieren der Signale des Innenmikrofons und des Außenmikrofons auf der Grundlage der Umgebungsgeräuschbedingungen. Unter Bedingungen mit starkem Rauschen würde sich jedoch eine Auswahl ergeben zwischen hochfrequentem Sprachanteil mit Rauschen und reduziertem Rauschen mit gedämpfter Sprachqualität. Wenn die Sprache im Inneren des Gehörgangs eine sehr begrenzte effektive Bandbreite hat, kann ihre Verständlichkeit sehr gering sein. Dies schränkt die Wirksamkeit der Sprachkommunikation oder der Spracherkennung deutlich ein. Ferner wird aufgrund des Fehlens einer Frequenzauflösung bei der Mischung im Zeitbereich ein Ausgleich zwischen Schaltstörsignal aufgrund der weniger häufigen, aber dennoch signifikanten Änderungen der Mischgewichtung und der Verzerrung aufgrund der kleineren, aber gleichmäßigeren Änderungen herbeigeführt. Ferner ist die Wirksamkeit der Steuerns der Gewichte für das Mischen für die Mischung im Zeitbereich auf der Grundlage eines abgeschätzten Rauschpegels stark abhängig von Faktoren, etwa der Feinabstimmung und den Verstärkungseinstellungen in der Audio-Kette, den Positionen von Mikrofonen und der Lautstärke der Sprache bzw. der Stimme des Benutzers. Andererseits kann die Verwendung eines SNR als Steuermechanismus im Zeitbereich weniger wirksam sein aufgrund des Fehlens einer Frequenzauflösung. In Hinblick auf die Einschränkungen bei der Mischung im Zeitbereich kann die Mischung im Teilband-Bereich gemäß den diversen Ausführungsformen Flexibilität und die Möglichkeit bieten, eine erhöhte Robustheit und ein größeres Leistungsvermögen für das MSB-Modul zu erreichen.
  • Beim Mischen im Teilband-Bereich wird der in Gl. (27) definierte Signalmischvorgang auf das Teilband-Außenmikrofonsignal xex,k(m) und auf das spektral angeglichene Teilband-Innenmikrofonsignal xin,align,k(m) angewendet, wie folgt: s o u t , k ( m ) = g S B , k x i n , a l i g n , k ( m ) + ( 1 g S B , k ) x e x , k ( m )
    Figure DE112016004161T5_0039
    wobei k der Teilband-Index und m der Blockindex ist. Das im Teilband gemischte Ausgangssignal sout,k(m) kann in den Zeitbereich zurück transformiert werden, um das gemischte Ausgangssignal sout(n) zu erzeugen, oder es kann im Teilband-Bereich bleiben, um von nachgeordneten Teilband-Verarbeitungsmodulen verarbeitet zu werden.
  • In diversen Ausführungsformen bietet die Mischung im Teilband-Bereich die Flexibilität des Einstellens der Signalmischgewichte (gSB,k) für jedes Teilband in separater Weise, so dass das Verfahren die Änderungen von Faktoren besser handhaben kann, etwa die effektive Bandbreite der gehörganginternen Sprache und der spektralen Leistungsverteilungen von Sprache und Rauschen. Aufgrund der verfeinerten Frequenzauflösung kann ein SNR-basierter Steuermechanismus in dem Teilband-Bereich effizient sein und liefert die gewünschte Robustheit gegenüber Schwankungen von diversen Faktoren, etwa von Verstärkungseinstellungen in der Audio-Kette, den Positionen von Mikrofonen und der Lautstärke der Stimme des Benutzers.
  • Die Teilband-Signalmischgewichte können auf der Grundlage der Differenz zwischen den SNRs im Innenmikrofon und im Außenmikrofon wie folgt eingestellt werden: g S B , k ( m ) = ( ( S N R i n , k ( m ) ) ρ S B ( S N R i n , k ( m ) ) ρ S B + ( β S B S N R e x , k ( m ) ) ρ S B )
    Figure DE112016004161T5_0040
    wobei SNRex,k(m) und SNRin,k(m) die aktuellen Teilband-SNRs des Außenmikrofonsignals und entsprechend des Innenmikrofonsignals sind, und diese werden aus den NT/NR-Modulen 602 bereitgestellt. βSB ist die Verschiebungskonstante, die positive Werte annimmt und die normalerweise auf 1,0 festgesetzt ist. ρSB ist die Übergangssteuerkonstante, die positive Werte annimmt und die normalerweise auf einen Wert zwischen 0,5 und 4,0 eingestellt wird. Wenn βSB =1,0 gilt, dann begünstigt das Teilband-Signalmischgewicht, das aus Gl. (35) berechnet wird, das Signal mit dem höheren SNR in dem entsprechenden Teilband. Da die beiden Signale entsprechend angeglichen sind, erlaubt diese Entscheidung, das Mikrofon mit dem geringeren Grundrauschen innerhalb der effektiven Bandbreite einer gehörganginternen Sprache auszuwählen. Außerhalb dieser Bandbreite erfolgt eine Verschiebung zu dem Außenmikrofonsignal in der natürlichen Sprachbandbreite oder es erfolgt eine Aufteilung zwischen den beiden, wenn es in dem Teilband keine Sprache bzw. Stimme gibt. Das Festlegen von βSB auf eine Zahl größer oder kleiner als 1,0 verschiebt die Entscheidung in Richtung zu einem Außenmikrofon oder entsprechend zu einem Innenmikrofon. Der Einfluss von βSB ist proportional zu seiner logarithmischen Skala. ρSB steuert den Übergang zwischen den Mikrofonen. Ein größeres ρSB führt zu einem schärferen Übergang, während ein kleineres ρSB zu einem weicheren Übergang führt.
  • Die Entscheidung in Gl. (35) kann in Hinblick auf eine bessere Sprachqualität zeitlich geglättet werden. Alternativ können die in Gl. (35) verwendeten Teilband-SNRs zeitlich geglättet werden, um eine ähnliche Wirkung zu erreichen. Wenn die Teilband-SNRs sowohl für das Innenmikrofonsignal als auch für das Außenmikrofonsignal gering sind, verlangsamt sich der Glättungsvorgang zugunsten eines konsistenteren Grundrauschens.
  • Die Entscheidung in Gl. (35) wird in jedem Teilband unabhängig ausgeführt. Eine bandübergreifende Entscheidung kann zur besseren Robustheit hinzugefügt werden. Beispielsweise können die Teilbänder mit relativ niedrigem SNR im Vergleich zu anderen Teilbändern in Richtung zu dem Teilbandsignal mit der niedrigeren Leistung für eine bessere Rauschunterdrückung verschoben werden.
  • Die SNR-basierte Entscheidung für gSB,k(m) hängt im Wesentlichen von den Verstärkungseinstellungen in der Audio-Kette ab. Obwohl es möglich ist, die Rauschpegelabschätzungen direkt oder indirekt in den Entscheidungsprozess in Hinblick auf eine verbesserte Robustheit gegenüber der Volatilität in SNR-Abschätzungen einzubauen, kann die Robustheit gegenüber anderen Arten von Schwankungen dadurch reduziert werden.
  • Beispielhafte alternative Verwendungen
  • Ausführungsformen der vorliegenden Technik sind nicht auf Einrichtungen beschränkt, die ein einziges Innenmikrofon und ein einziges Außenmikrofon haben. Wenn beispielsweise mehrere Außenmikrofone vorhanden sind, können Algorithmen zur räumlichen Filterung zunächst auf die Außenmikrofonsignale angewendet werden, um ein einziges Außenmikrofonsignal mit geringerem Rauschpegel zu erzeugen, während seine Sprachqualität an das Außenmikrofon mit der besten Sprachqualität angeglichen wird. Das resultierende Außenmikrofonsignal kann dann durch die vorgeschlagene Vorgehensweise verarbeitet werden, um eine Zusammenführung mit dem Innenmikrofonsignal zu erreichen.
  • Wenn in ähnlicher Weise zwei Innenmikrofone vorhanden sind, eines in jedem Gehörgang des Benutzers, dann kann zunächst eine Kohärenzverarbeitung auf die beiden Innenmikrofonsignale angewendet werden, um ein einziges Innenmikrofonsignal mit besserer Schallisolation, breiterer effektiver Sprachbandbreite oder beidem zu erzeugen. In diversen Ausführungsformen wird dieses einzige interne Signal dann unter Anwendung diverser Ausführungsformen des Verfahrens und des Systems der vorliegenden Technik verarbeitet, um ein Zusammenführen mit dem Außenmikrofonsignal zu erreichen.
  • Alternativ kann die vorliegende Technik auf Paare von Innenmikrofon und Außenmikrofon, beispielsweise auf das linke und das rechte Ohr des Benutzers, separat angewendet werden. Da die Ausgangssignale die spektralen Amplituden und Phasen der Sprache an den entsprechenden Außenmikrofonen bewahren, können sie durch geeignete nachgeordnete Verarbeitungsmodule verarbeitet werden, um die Sprachqualität weiter zu verbessern. Die vorliegende Technik kann ferner für andere Konfigurationen aus Innenmikrofon und Außenmikrofon verwendet werden.
  • 7 ist ein Flussdiagramm, das ein Verfahren 700 zum Verschmelzen bzw. Zusammenführen von Mikrofonsignalen gemäß einer anschaulichen Ausführungsform zeigt. Das Verfahren 700 kann unter Anwendung des DSP 112 umgesetzt werden. Das anschauliche Verfahren 700 beginnt in Block 702 mit dem Empfang eines ersten Signals und eines zweiten Signals. Das erste Signal repräsentiert mindestens einen Klang, der von einem Außenmikrofon aufgenommen wird, und der mindestens eine Sprachkomponente enthält. Das zweite Signal repräsentiert mindestens einen Klang, der von einem Innenmikrofon erfasst wird, das im Inneren eines Gehörgangs eines Benutzers angeordnet ist, und das Signal enthält zumindest die Sprachkomponente, die zumindest durch menschliches Gewebe modifiziert ist. Das Innenmikrofon kann an der Einsetzstelle abgedichtet werden, um eine Isolation zu Schallsignalen, die von außerhalb des Gehörgangs stammen, zu erreichen, oder es kann teilweise in Abhängigkeit von dem Anwender und der Anordnung des Innenmikrofons in dem Gehörgang durch den Anwender abgedichtet werden.
  • In Block 704 ermöglicht das Verfahren 700 die Verarbeitung des ersten Signals, um erste Abschätzungen des Rauschens bzw. der Geräusche zu erhalten. In Block 706 (der gestrichelt gezeigt ist, da er für einige Ausführungsformen optional ist) verarbeitet das Verfahren 700 das zweite Signal, um zweite Abschätzungen des Rauschens zu erhalten. In Block 708 gleicht das Verfahren 700 das zweite Signal an das erste Signal an. In Block 710 beinhaltet das Verfahren 700 das Mischen, auf der Grundlage zumindest der ersten Abschätzungen des Rauschens (und optional auch auf der Grundlage der zweiten Abschätzungen des Rauschens), des ersten Signals und des angeglichenen zweiten Signals, um ein verbessertes Sprachsignal zu erzeugen.
  • 8 zeigt ein anschauliches Computersystem 800, das zum Implementieren einiger Ausführungsformen der vorliegenden Erfindung eingesetzt werden kann. Das Computersystem 800 der 8 kann in Zusammenhang und dergleichen von Computersystemen, Netzwerken, Server-Rechnern oder Kombinationen davon eingerichtet werden. Das Computersystem 800 der 8 beinhaltet eine oder mehrere Prozessoreinheiten 810 und einen Hauptspeicher 820. Der Hauptspeicher 820 speichert teilweise Befehle und Daten, die zur Ausführung durch die Prozessoreinheiten 810 vorgesehen sind. Der Hauptspeicher 820 speichert in diesem Beispiel den ausführbaren Code, wenn er in Betrieb ist. Das Computersystem 800 der 8 umfasst ferner einen Massendatenspeicher 830, eine tragbare Speichereinrichtung 840, Ausgabeeinrichtungen 850, Benutzereingabeeinrichtungen 860, ein Graphikanzeigesystem 870 und Peripheriegeräte 880.
  • Die in 8 gezeigten Komponenten sind so dargestellt, dass sie durch einen einzigen Bus 890 verbunden sein. Die Komponenten können über eine oder mehrere Datentransporteinrichtungen verbunden sein. Die Prozessoreinheit 810 und der Hauptspeicher 820 sind über einen lokalen Mikroprozessorbus verbunden, und der Massendatenspeicher 830, das eine oder die mehreren Peripheriegerät/e 880, die tragbare Speichereinrichtung 840 und das Graphikanzeigesystem 870 sind über einen oder mehrere Eingangs/Ausgangs-(I/O-) Busse verbunden.
  • Der Massendatenspeicher 830, der mittels eines Magnetscheibenlaufwerks, eines Halbleiterspeicherlaufwerks, oder eines optischen Diskettenlaufwerks implementiert werden kann, ist ein nichtflüchtiger Speicher zur Speicherung von Daten und Befehlen zur Verwendung durch die Prozessoreinheit 810. Der Massendatenspeicher 830 speichert die Systemsoftware zum Implementieren von Ausführungsformen der vorliegenden Offenbarung zum Zwecke des Ladens dieser Software in den Hauptspeicher 820.
  • Die tragbare Speichereinrichtung 840 arbeitet in Verbindung mit einem tragbaren, nichtflüchtigen Speichermedium, etwa einem Flash-Laufwerk, einem Diskettenlaufwerk, einer Kompaktdiskette, einer digitalen Videodiskette oder einer Speichereinrichtung für den universellen seriellen Bus (USB), um Daten und Code mit dem Computersystem 800 der 8 auszutauschen. Die Systemsoftware zur Implementierung von Ausführungsformen der vorliegenden Offenbarung ist in einem derartigen tragbaren Medium gespeichert und wird dem Computersystem 800 über die tragbare Speichereinrichtung 840 zugeführt.
  • Die Anwendereingabeeinrichtungen 860 können einen Bereich einer Benutzerschnittstelle bereitstellen. Die Benutzereingabeeinrichtungen 860 können ein oder mehrere Mikrofone, alphanumerische Tasten, etwa eine Tastatur, zur Eingabe alphanumerischer Information oder anderer Information, oder eine Zeigereinrichtung, etwa eine Maus, eine Spurverfolgungskugel, einen Stift oder Cursor-Richtungstasten aufweisen. Die Benutzereingabeeinrichtungen 860 können ferner einen berührungsempfindlichen Bildschirm beinhalten. Des Weiteren beinhaltet das in 8 gezeigte Computersystem 800 die Ausgabeeinrichtungen 850. Zu geeigneten Ausgabeeinrichtungen 850 gehören Lautsprecher, Drucker, Netzwerkschnittstellen und Bildschirmgeräte.
  • Das Graphikanzeigesystem 870 umfasst eine Flüssigkristallanzeige (LCD) oder eine andere geeignete Anzeigeeinrichtung. Das Graphikanzeigesystem 870 kann so konfiguriert werden, dass es Textinformation und Graphikinformation empfängt und die Information zur Ausgabe auf der Anzeigevorrichtung verarbeitet.
  • Die Peripheriegeräte 880 können eine beliebige Art von Geräten zur Unterstützung des Computers umfassen, um dem Computersystem zusätzliche Funktionen hinzuzufügen.
  • Die in dem Computersystem 800 der 8 bereitgestellten Komponenten sind solche, die typischerweise in Computersystemen vorgefunden werden und die zur Verwendung in Verbindung mit Ausführungsformen der vorliegenden Offenbarung geeignet und dazu gedacht sind, eine breite Kategorie derartiger Computerkomponenten zu repräsentieren, die im Stand der Technik gut bekannt sind. Somit kann das Computersystem 800 der 8 ein Personalcomputer (PC), ein Hand-Computersystem, ein Telefon, ein mobiles Computersystem, ein Arbeitsplatzrechner, ein Tablet-Rechner, ein Phablet-Rechner, ein Mobiltelefon, ein Server, ein Minicomputer, ein Großcomputer, ein am Körper tragbarer Rechner oder ein beliebiges anderes Computersystem sein. Der Computer kann ferner unterschiedliche Buskonfigurationen, vernetzte Plattformen, Multi-Prozessor-Plattformen und dergleichen mit einschließen. Es können diverse Betriebssysteme eingesetzt werden, wozu UNIX, LINUX, WINDOWS, MAC OS, PALM OS, QNX ANDROID, IOS, CHROME, TIZEN und andere geeignete Betriebssysteme gehören.
  • Die Verarbeitung der diversen Ausführungsformen kann in Software eingerichtet werden, die auf Basis eines Cloud-Systems beruht. In einigen Ausführungsformen ist das Computersystem 800 als eine Cloud-basierte Rechenumgebung eingerichtet, etwa als eine virtuelle Maschine, die in einer Rechen-Cloud arbeitet. In anderen Ausführungsformen kann das Computersystem 800 selbst eine Cloud-basierte Rechenumgebung enthalten, in der die Funktionen des Computersystems 800 in einer verteilten Weise ausgeführt werden. Daher kann das Computersystem 800, wenn es als eine Rechen-Cloud ausgebildet ist, mehrere Recheneinrichtungen in diversen Formen aufweisen, wie dies nachfolgend detaillierter beschrieben ist.
  • Im Allgemeinen ist eine Cloud-basierte Rechenumgebung eine Ressource, die typischerweise die Rechenleistung einer großen Gruppe an Prozessoren vereinigt (etwa innerhalb von Netz-Servern) und/oder die die Speicherkapazität einer großen Gruppe aus Computerspeichern oder Speichereinrichtungen vereinigt. Systeme, die Cloud-basierte Ressourcen bieten, können exklusiv von ihren Besitzern genutzt werden, oder derartige Systeme sind auch für externe Benutzer verfügbar, die Anwendungen innerhalb der Recheninfrastruktur verteilen, um den Vorteil großer Rechenressourcen oder Speicherressourcen zu erhalten.
  • Die Cloud kann beispielsweise durch ein Netzwerk aus Netz-Servern gebildet sein, die mehrere Recheneinrichtungen, etwa das Computersystem 800 umfassen, wobei jeder Server (oder zumindest mehrere davon) einen Prozessor und/oder Speicherressourcen bereitstellen. Diese Server können die Arbeitslast, die durch mehrere Benutzer entsteht (beispielsweise von Kunden für Cloud-Ressourcen oder anderen Benutzern) verwalten. Typischerweise werden der Cloud Arbeitslastanforderungen von jedem Benutzer auferlegt, die in Echtzeit variieren, häufig sehr stark variieren. Die Natur und das Ausmaß dieser Schwankungen hängt typischerweise von der Art der geschäftlichen Aktivität ab, die mit dem Benutzer in Zusammenhang steht.
  • Die vorliegende Technik ist zuvor mit Verweis auf beispielhafte Ausführungsformen beschrieben. Daher sollen andere Varianten der anschaulichen Ausführungsformen durch die vorliegende Offenbarung ebenfalls abgedeckt sein.

Claims (28)

  1. Ein Verfahren zum Zusammenführen von Mikrofonsignalen, wobei das Verfahren umfasst: Empfangen eines ersten Signals, das mindestens eine Sprachkomponente enthält, und eines zweiten Signals, das zumindest die Sprachkomponente enthält, die zumindest durch menschliches Gewebe modifiziert ist; Verarbeiten des ersten Signals, um erste Abschätzungen von Rauschen zu erhalten; spektrales Angleichen der Sprachkomponente in dem zweiten Signal an die Sprachkomponente in dem ersten Signal; und Mischen, auf der Grundlage zumindest der ersten Abschätzungen des Rauschens, des ersten Signals und der angeglichenen Sprachkomponente in dem zweiten Signal zur Erzeugung eines verbesserten Sprachsignals, wobei das Mischen beinhaltet: Zuweisen, auf der Grundlage zumindest der ersten Abschätzungen des Rauschens, eines ersten Gewichts zu dem ersten Signal und eines zweiten Gewichts zu dem zweiten Signal, und Mischen des ersten Signals und des zweiten Signals entsprechend dem ersten Gewicht und dem zweiten Gewicht.
  2. Das Verfahren nach Anspruch 1, wobei das zweite Signal mindestens einen Klang repräsentiert, der von einem im Inneren eines Gehörgangs angeordneten Innenmikrofon erfasst wird.
  3. Das Verfahren nach Anspruch 2, wobei das Innenmikrofon zumindest teilweise abgedichtet ist, um eine Isolierung zu Schallsignalen von außerhalb des Gehörgangs bereitzustellen.
  4. Das Verfahren nach Anspruch 1, wobei das erste Signal mindestens einen Klang repräsentiert, der von einem außerhalb eines Gehörgangs angeordneten Außenmikrofon erfasst wird.
  5. Das Verfahren nach Anspruch 1, das ferner Verarbeiten des zweiten Signals zum Erhalten zweiter Abschätzungen des Rauschens umfasst.
  6. Das Verfahren nach Anspruch 5, wobei Zuweisen des ersten Gewichts zu dem ersten Signal und des zweiten Gewichts zu dem zweiten Signal zumindest auf den ersten Abschätzungen des Rauschens und den zweiten Abschätzungen des Rauschens beruht.
  7. Das Verfahren nach Anspruch 1, wobei das Angleichen und/oder das Mischen für Teilbänder im Frequenzbereich ausgeführt werden.
  8. Das Verfahren nach Anspruch 1, wobei das Verarbeiten, das Angleichen und das Mischen für Teilbänder im Frequenzbereich ausgeführt werden.
  9. Das Verfahren nach Anspruch 1, das ferner Ausführen einer Rauschunterdrückung für das erste Signal umfasst.
  10. Das Verfahren nach Anspruch 1, das ferner Ausführen einer Rauschunterdrückung für das zweite Signal umfasst.
  11. Das Verfahren nach Anspruch 5, das ferner umfasst: vor dem Angleichen, Ausführen einer Rauschunterdrückung für das erste Signal auf der Grundlage der ersten Abschätzungen des Rauschens; und vor dem Angleichen, Ausführen einer Rauschunterdrückung für das zweite Signal auf der Grundlage der zweiten Abschätzungen des Rauschens.
  12. Das Verfahren nach Anspruch 5, das ferner umfasst: nach dem Angleichen, Ausführen einer Rauschunterdrückung für das erste Signal auf der Grundlage der ersten Abschätzungen des Rauschens; und nach dem Angleichen, Ausführen einer Rauschunterdrückung für das zweite Signal auf der Grundlage der zweiten Abschätzungen des Rauschens.
  13. Das Verfahren nach Anspruch 1, wobei das Angleichen umfasst: Anwenden eines spektralen Angleichungsfilters auf das zweite Signal.
  14. Das Verfahren nach Anspruch 13, wobei der spektrale Angleichungsfilter einen empirisch abgeleiteten Filter beinhaltet.
  15. Das Verfahren nach Anspruch 13, wobei der spektrale Angleichungsfilter einen adaptiven Filter umfasst, der auf der Grundlage einer Kreuzkorrelation des ersten Signals und des zweiten Signals und einer Autokorrelation des zweiten Signals berechnet wird.
  16. Das Verfahren nach Anspruch 6, wobei das erste Gewicht einen größeren Wert als das zweite Gewicht erhält, wenn ein Signal-Rauschen-Verhältnis (SNR) des ersten Signals größer als ein SNR des zweiten Signals ist, und wobei das zweite Gewicht einen größeren Wert als das erste Gewicht erhält, wenn das SNR des ersten Signals kleiner als das SNR des zweiten Signals ist, wobei die Differenz zwischen dem ersten Gewicht und dem zweiten Gewicht der Differenz zwischen dem SNR des ersten Signals und dem SNR des zweiten Signals entspricht.
  17. Ein System zum Zusammenführen von Mikrofonsignalen, wobei das System umfasst: einen digitalen Signalprozessor, ausgebildet ist zum: Empfangen eines ersten Signals mit mindestens einer Sprachkomponente und eines zweiten Signals mit mindestens der Sprachkomponente, die zumindest durch menschliches Gewebe modifiziert ist; Verarbeiten des ersten Signals, um erste Abschätzungen eines Rauschens zu erhalten; spektralen Angleichen der Sprachkomponente in dem zweiten Signal an die Sprachkomponente in dem ersten Signal; und Mischen, auf der Grundlage zumindest der ersten Abschätzungen des Rauschens, des ersten Signals und der angeglichenen Sprachkomponente in dem zweiten Signal zur Erzeugung eines verbesserten Sprachsignals, mit: Zuweisen, auf der Grundlage zumindest der ersten Abschätzungen des Rauschens, eines ersten Gewichtes zu dem ersten Signal und eines zweiten Gewichtes zu dem zweiten Signal; und Mischen des ersten Signals und des zweiten Signals entsprechend dem ersten Gewicht und dem zweiten Gewicht.
  18. Das System nach Anspruch 17, das ferner umfasst: ein Innenmikrofon, das im Inneren eines Gehörgangs angeordnet und abgedichtet ist, so dass es von Schallsignalen außerhalb des Gehörgangs isoliert ist, wobei das zweite Signal mindestens einen Klang repräsentiert, der von dem Innenmikrofon erfasst wird; und ein Außenmikrofon, das außerhalb des Gehörgangs angeordnet ist, wobei das erste Signal mindestens einen Klang repräsentiert, der von dem Außenmikrofon erfasst wird.
  19. Das System nach Anspruch 17, wobei der digitale Signalprozessor ferner ausgebildet ist, das zweite Signal so zu verarbeiten, dass zweite Abschätzungen des Rauschens erhalten werden.
  20. Das System nach Anspruch 19, wobei das Zuweisen des ersten Gewichts zu dem ersten Signal und des zweiten Gewichts zu dem zweiten Signal zumindest auf den ersten Abschätzungen des Rauschens und den zweiten Abschätzungen des Rauschens beruht.
  21. Das System nach Anspruch 17, wobei die Verarbeitung, das Angleichen und das Mischen für Teilbänder im Frequenzbereich ausgeführt werden.
  22. Das System nach Anspruch 17, wobei der digitale Signalprozessor ferner ausgebildet ist, eine Rauschunterdrückung für das erste Signal und das zweite Signal auszuführen.
  23. Das System nach Anspruch 19, wobei der digitale Signalprozessor ferner ausgebildet ist zum: Ausführen, vor dem Angleichen und auf der Basis der ersten Abschätzungen des Rauschens, einer Rauschunterdrückung für das erste Signal; und Ausführen, vor dem Angleichen und auf der Grundlage der zweiten Abschätzungen des Rauschens, einer Rauschunterdrückung für das zweite Signal.
  24. Das System nach Anspruch 19, wobei der digitale Signalprozessor ferner ausgebildet ist zum: Ausführen, nach dem Angleichen und auf der Grundlage der ersten Abschätzungen des Rauschens, einer Rauschunterdrückung für das erste Signal; und Ausführen, nach dem Angleichen und auf der Grundlage der zweiten Abschätzungen des Rauschens, einer Rauschunterdrückung für das zweite Signal.
  25. Das System nach Anspruch 17, wobei das Angleichen umfasst: Anwenden eines spektralen Angleichungsfilters auf das zweite Signal.
  26. Das System nach Anspruch 25, wobei der spektrale Angleichungsfilter einen empirisch abgeleiteten Filter und/oder einen adaptiven Filter beinhaltet, wobei der adaptive Filter auf der Grundlage einer Kreuzkorrelation des ersten Signals und des zweiten Signals und einer Autokorrelation des zweiten Signals berechnet ist.
  27. Das System nach Anspruch 20, wobei das erste Gewicht einen größeren Wert als das zweite Gewicht erhält, wenn ein Signal-Rauschen-Verhältnis (SNR) des ersten Signals größer als ein SNR des zweiten Signals ist, und wobei das zweite Gewicht einen größeren Wert erhält als das erste Gewicht, wenn das SNR des ersten Signals kleiner ist als das SNR des zweiten Signals, wobei die Differenz zwischen dem ersten Gewicht und dem zweiten Gewicht der Differenz zwischen dem SNR des ersten Signals und dem SNR des zweiten Signals entspricht.
  28. Ein nicht-flüchtiges computerlesbares Speichermedium, in welchem Befehle enthalten sind, die bei Ausführung durch mindestens einen Prozessor zur Ausführung von Schritten eines Verfahrens führen, wobei das Verfahren umfasst: Empfangen eines ersten Signals mit mindestens einer Sprachkomponente und eines zweiten Signals mit mindestens der Sprachkomponente, die zumindest durch menschliches Gewebe modifiziert ist; Verarbeiten des ersten Signals zum Erhalten erster Abschätzungen eines Rauschens; spektrales Angleichen der Sprachkomponente in dem zweiten Signal an die Sprachkomponente in dem ersten Signal; und Mischen, auf der Grundlage zumindest der ersten Abschätzungen des Rauschens, des ersten Signals und der angeglichenen Sprachkomponente in dem zweiten Signal zur Erzeugung eines verbesserten Sprachsignals, wobei das Mischen umfasst: Zuweisen, auf der Grundlage zumindest der ersten Abschätzungen des Rauschens, eines ersten Gewichts zu dem ersten Signal und eines zweiten Gewichts zu dem zweiten Signal, und Mischen des ersten Signals und des zweiten Signals gemäß dem ersten Gewicht und dem zweiten Gewicht.
DE112016004161.6T 2015-09-14 2016-08-23 Mikrofonsignalzusammenführung Withdrawn DE112016004161T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/853,947 2015-09-14
US14/853,947 US9401158B1 (en) 2015-09-14 2015-09-14 Microphone signal fusion
PCT/US2016/048247 WO2017048470A1 (en) 2015-09-14 2016-08-23 Microphone signal fusion

Publications (1)

Publication Number Publication Date
DE112016004161T5 true DE112016004161T5 (de) 2018-05-30

Family

ID=56411286

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016004161.6T Withdrawn DE112016004161T5 (de) 2015-09-14 2016-08-23 Mikrofonsignalzusammenführung

Country Status (4)

Country Link
US (2) US9401158B1 (de)
CN (1) CN108028049B (de)
DE (1) DE112016004161T5 (de)
WO (1) WO2017048470A1 (de)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NO2690883T3 (de) 2012-07-27 2018-03-10
US9500739B2 (en) 2014-03-28 2016-11-22 Knowles Electronics, Llc Estimating and tracking multiple attributes of multiple objects from multi-sensor data
US9716952B2 (en) * 2014-10-24 2017-07-25 Cochlear Limited Sound processing in a hearing device using externally and internally received sounds
US9812149B2 (en) * 2016-01-28 2017-11-07 Knowles Electronics, Llc Methods and systems for providing consistency in noise reduction during speech and non-speech periods
US9813833B1 (en) * 2016-10-14 2017-11-07 Nokia Technologies Oy Method and apparatus for output signal equalization between microphones
US11528556B2 (en) 2016-10-14 2022-12-13 Nokia Technologies Oy Method and apparatus for output signal equalization between microphones
KR102508844B1 (ko) * 2016-10-24 2023-03-13 아브네라 코포레이션 다수의 마이크로폰을 이용한 자동 노이즈 캔슬링
US10424315B1 (en) 2017-03-20 2019-09-24 Bose Corporation Audio signal processing for noise reduction
US10366708B2 (en) 2017-03-20 2019-07-30 Bose Corporation Systems and methods of detecting speech activity of headphone user
US10311889B2 (en) 2017-03-20 2019-06-04 Bose Corporation Audio signal processing for noise reduction
US10499139B2 (en) 2017-03-20 2019-12-03 Bose Corporation Audio signal processing for noise reduction
US10249323B2 (en) 2017-05-31 2019-04-02 Bose Corporation Voice activity detection for communication headset
CN109413253A (zh) * 2017-08-17 2019-03-01 西安中兴新软件有限责任公司 一种实现移动终端的消噪方法及装置
US10438605B1 (en) 2018-03-19 2019-10-08 Bose Corporation Echo control in binaural adaptive noise cancellation systems in headsets
US10685663B2 (en) * 2018-04-18 2020-06-16 Nokia Technologies Oy Enabling in-ear voice capture using deep learning
CN108847228A (zh) * 2018-05-17 2018-11-20 东莞市华睿电子科技有限公司 一种基于双人发声的空间机器人控制方法
CN108831498B (zh) * 2018-05-22 2020-01-24 出门问问信息科技有限公司 多波束波束成形的方法、装置及电子设备
CN109314814B (zh) * 2018-09-11 2020-11-27 深圳市汇顶科技股份有限公司 主动降噪方法及耳机
CN110786022A (zh) * 2018-11-14 2020-02-11 深圳市大疆创新科技有限公司 基于多麦克风的风噪处理方法、装置、系统及存储介质
CN113544768A (zh) * 2018-12-21 2021-10-22 诺拉控股有限公司 使用多传感器的语音识别
WO2020131963A1 (en) 2018-12-21 2020-06-25 Nura Holdings Pty Ltd Modular ear-cup and ear-bud and power management of the modular ear-cup and ear-bud
KR102303401B1 (ko) * 2019-02-08 2021-09-24 한양대학교 에리카산학협력단 하이브리드 홈 음성인식 시스템 및 그 제공 방법
KR102565882B1 (ko) * 2019-02-12 2023-08-10 삼성전자주식회사 복수의 마이크들을 포함하는 음향 출력 장치 및 복수의 마이크들을 이용한 음향 신호의 처리 방법
CN109905793B (zh) * 2019-02-21 2021-01-22 电信科学技术研究院有限公司 一种风噪声抑制方法、装置及可读存储介质
US10681452B1 (en) 2019-02-26 2020-06-09 Qualcomm Incorporated Seamless listen-through for a wearable device
WO2020180499A1 (en) 2019-03-01 2020-09-10 Nura Holdings Pty Ltd Headphones with timing capability and enhanced security
CN110164425A (zh) * 2019-05-29 2019-08-23 北京声智科技有限公司 一种降噪方法、装置及可实现降噪的设备
EP3785760A1 (de) * 2019-07-25 2021-03-03 Gottfried Wilhelm Leibniz Universität Hannover Verfahren zum verbessern der hörqualität eines menschen, cochlea-implantat sowie cochlea-implantatsystem
CN110856072B (zh) * 2019-12-04 2021-03-19 北京声加科技有限公司 一种耳机通话降噪方法及耳机
CN113038318B (zh) * 2019-12-25 2022-06-07 荣耀终端有限公司 一种语音信号处理方法及装置
US20230105492A1 (en) * 2020-03-03 2023-04-06 Shifamed Holdings, Llc Prosthetic cardiac valve devices, systems, and methods
US11337000B1 (en) 2020-10-23 2022-05-17 Knowles Electronics, Llc Wearable audio device having improved output
DE102021200860A1 (de) * 2021-02-01 2022-08-04 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und System zum Kalibrieren eines Körperschall-sensitiven Beschleunigungssensors und Verfahren zur Korrektur der Messsignale eines Körperschall-sensitiven Beschleunigungssensors
US11729563B2 (en) 2021-02-09 2023-08-15 Gn Hearing A/S Binaural hearing device with noise reduction in voice during a call
EP4040804B1 (de) * 2021-02-09 2025-05-07 GN Hearing A/S Binaurale hörvorrichtung mit rauschunterdrückung in der stimme während eines anrufs
CN113163300A (zh) * 2021-03-02 2021-07-23 广州朗国电子科技有限公司 音频降噪电路和电子设备
CN112929780B (zh) * 2021-03-08 2024-07-02 东莞市七倍音速电子有限公司 一种降噪处理的音频芯片及耳机
US11830489B2 (en) 2021-06-30 2023-11-28 Bank Of America Corporation System and method for speech processing based on response content
CN113823314B (zh) * 2021-08-12 2022-10-28 北京荣耀终端有限公司 语音处理方法和电子设备
CN118711618A (zh) * 2023-03-27 2024-09-27 哈曼国际工业有限公司 用于检测语音信号的失真并修复失真的语音信号的方法

Family Cites Families (313)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2535063A (en) 1945-05-03 1950-12-26 Farnsworth Res Corp Communicating system
DE915826C (de) 1948-10-02 1954-07-29 Atlas Werke Ag Knochenleitungshoerer
US4150262A (en) 1974-11-18 1979-04-17 Hiroshi Ono Piezoelectric bone conductive in ear voice sounds transmitting and receiving apparatus
US3995113A (en) 1975-07-07 1976-11-30 Okie Tani Two-way acoustic communication through the ear with acoustic and electric noise reduction
JPS5888996A (ja) 1981-11-20 1983-05-27 Matsushita Electric Ind Co Ltd 骨導マイクロホン
JPS5888996U (ja) 1981-12-11 1983-06-16 三菱電機株式会社 乾燥機
JPS59500744A (ja) 1982-04-05 1984-04-26 ヘイデン・スパイク・カンパニ−・プロプライアトリ−・リミテツド オト−ラリンジエアル通信システム
US4588867A (en) 1982-04-27 1986-05-13 Masao Konomi Ear microphone
US4455675A (en) 1982-04-28 1984-06-19 Bose Corporation Headphoning
US4516428A (en) 1982-10-28 1985-05-14 Pan Communications, Inc. Acceleration vibration detector
EP0109646A1 (de) 1982-11-16 1984-05-30 Pilot Man-Nen-Hitsu Kabushiki Kaisha Aufnehmer zur Aufnahme von durch Knochen geleiteten Vibrationen
JPS59204399A (ja) 1983-05-04 1984-11-19 Pilot Pen Co Ltd:The 固体伝導音声振動ピツクアツプマイクロホン
JPS60103798A (ja) 1983-11-09 1985-06-08 Takeshi Yoshii 変位型骨導マイクロホン
JPS60103798U (ja) 1983-12-22 1985-07-15 石川島播磨重工業株式会社 低温液化ガス貯槽
US4696045A (en) 1985-06-04 1987-09-22 Acr Electronics Ear microphone
US4644581A (en) 1985-06-27 1987-02-17 Bose Corporation Headphone with sound pressure sensing means
DE3723275A1 (de) 1986-09-25 1988-03-31 Temco Japan Ohrmikrofon
DK159190C (da) 1988-05-24 1991-03-04 Steen Barbrand Rasmussen Oereprop til stoejbeskyttet kommunikation mellem brugeren af oereproppen og omgivelserne
US5182557A (en) 1989-09-20 1993-01-26 Semborg Recrob, Corp. Motorized joystick
US5305387A (en) 1989-10-27 1994-04-19 Bose Corporation Earphoning
WO1994025957A1 (en) 1990-04-05 1994-11-10 Intelex, Inc., Dba Race Link Communications Systems, Inc. Voice transmission system and method for high ambient noise conditions
US5208867A (en) 1990-04-05 1993-05-04 Intelex, Inc. Voice transmission system and method for high ambient noise conditions
US5282253A (en) 1991-02-26 1994-01-25 Pan Communications, Inc. Bone conduction microphone mount
EP0500985A1 (de) 1991-02-27 1992-09-02 Masao Konomi Halterung für Knochenleitungsmikrofon
US5295193A (en) 1992-01-22 1994-03-15 Hiroshi Ono Device for picking up bone-conducted sound in external auditory meatus and communication device using the same
US5490220A (en) 1992-03-18 1996-02-06 Knowles Electronics, Inc. Solid state condenser and microphone devices
US5251263A (en) 1992-05-22 1993-10-05 Andrea Electronics Corporation Adaptive noise cancellation and speech enhancement system and apparatus therefor
US5222050A (en) 1992-06-19 1993-06-22 Knowles Electronics, Inc. Water-resistant transducer housing with hydrophobic vent
WO1994007342A1 (en) 1992-09-17 1994-03-31 Knowles Electronics, Inc. Bone conduction accelerometer microphone
US5319717A (en) 1992-10-13 1994-06-07 Knowles Electronics, Inc. Hearing aid microphone with modified high-frequency response
US5732143A (en) 1992-10-29 1998-03-24 Andrea Electronics Corp. Noise cancellation apparatus
US7103188B1 (en) 1993-06-23 2006-09-05 Owen Jones Variable gain active noise cancelling system with improved residual noise sensing
AU7355594A (en) 1993-06-23 1995-01-17 Noise Cancellation Technologies, Inc. Variable gain active noise cancellation system with improved residual noise sensing
USD360949S (en) 1993-09-01 1995-08-01 Knowles Electronics, Inc. Hearing aid receiver
USD360691S (en) 1993-09-01 1995-07-25 Knowles Electronics, Inc. Hearing aid receiver
USD360948S (en) 1993-09-01 1995-08-01 Knowles Electronics, Inc. Hearing aid receiver
ITGE940067A1 (it) 1994-05-27 1995-11-27 Ernes S R L Protesi acustica endoauricolare.
US5659156A (en) 1995-02-03 1997-08-19 Jabra Corporation Earmolds for two-way communications devices
US6683965B1 (en) 1995-10-20 2004-01-27 Bose Corporation In-the-ear noise reduction headphones
JP3434106B2 (ja) 1995-12-01 2003-08-04 シャープ株式会社 半導体記憶装置
US6044279A (en) 1996-06-05 2000-03-28 Nec Corporation Portable electronic apparatus with adjustable-volume of ringing tone
US5870482A (en) 1997-02-25 1999-02-09 Knowles Electronics, Inc. Miniature silicon condenser microphone
US5983073A (en) 1997-04-04 1999-11-09 Ditzik; Richard J. Modular notebook and PDA computer systems for personal computing and wireless communications
DE19724667C1 (de) 1997-06-11 1998-10-15 Knowles Electronics Inc Hörsprechgarnitur
US6122388A (en) 1997-11-26 2000-09-19 Earcandies L.L.C. Earmold device
USD414493S (en) 1998-02-06 1999-09-28 Knowles Electronics, Inc. Microphone housing
US5960093A (en) 1998-03-30 1999-09-28 Knowles Electronics, Inc. Miniature transducer
NO984777L (no) 1998-04-06 1999-10-05 Cable As V Knut Foseide Safety Tyverivarslingskabel
US6041130A (en) 1998-06-23 2000-03-21 Mci Communications Corporation Headset with multiple connections
US6393130B1 (en) 1998-10-26 2002-05-21 Beltone Electronics Corporation Deformable, multi-material hearing aid housing
CN1339238A (zh) 1999-01-11 2002-03-06 福纳克有限公司 数字通信方法和数字通信系统
US6211649B1 (en) 1999-03-25 2001-04-03 Sourcenext Corporation USB cable and method for charging battery of external apparatus by using USB cable
US6094492A (en) 1999-05-10 2000-07-25 Boesen; Peter V. Bone conduction voice transmission apparatus and system
US6738485B1 (en) 1999-05-10 2004-05-18 Peter V. Boesen Apparatus, method and system for ultra short range communication
US6920229B2 (en) 1999-05-10 2005-07-19 Peter V. Boesen Earpiece with an inertial sensor
US6952483B2 (en) 1999-05-10 2005-10-04 Genisus Systems, Inc. Voice transmission apparatus with UWB
US6879698B2 (en) 1999-05-10 2005-04-12 Peter V. Boesen Cellular telephone, personal digital assistant with voice communication unit
US6219408B1 (en) 1999-05-28 2001-04-17 Paul Kurth Apparatus and method for simultaneously transmitting biomedical data and human voice over conventional telephone lines
US20020067825A1 (en) 1999-09-23 2002-06-06 Robert Baranowski Integrated headphones for audio programming and wireless communications with a biased microphone boom and method of implementing same
US6694180B1 (en) 1999-10-11 2004-02-17 Peter V. Boesen Wireless biopotential sensing device and method with capability of short-range radio frequency transmission and reception
US6255800B1 (en) 2000-01-03 2001-07-03 Texas Instruments Incorporated Bluetooth enabled mobile device charging cradle and system
US6757395B1 (en) 2000-01-12 2004-06-29 Sonic Innovations, Inc. Noise reduction apparatus and method
JP2001209480A (ja) 2000-01-28 2001-08-03 Alps Electric Co Ltd 送受信装置
JP3485060B2 (ja) 2000-03-08 2004-01-13 日本電気株式会社 情報処理端末装置及びそれに用いる携帯電話端末接続方法
DE20004691U1 (de) 2000-03-14 2000-06-29 Yang, Wen-Chin, Hsin Tien, Taipeh Ladeeinrichtung mit USB-Schnittstelle für einen GSM-Telefon-Akkumulator
AU2001245773A1 (en) 2000-03-15 2001-09-24 Knowles Electronics, Llc. Vibration-dampening receiver assembly
US6373942B1 (en) 2000-04-07 2002-04-16 Paul M. Braund Hands-free communication device
DK174402B1 (da) 2000-05-09 2003-02-10 Gn Netcom As Kommunikationsenhed
FI110296B (fi) 2000-05-26 2002-12-31 Nokia Corp Kädet vapaana -toiminto
US20020056114A1 (en) 2000-06-16 2002-05-09 Fillebrown Lisa A. Transmitter for a personal wireless network
US6931292B1 (en) 2000-06-19 2005-08-16 Jabra Corporation Noise reduction method and apparatus
JP2002084361A (ja) 2000-06-22 2002-03-22 Iwao Kashiwamura ワイヤレス型送受話器セット
USD451089S1 (en) 2000-06-26 2001-11-27 Knowles Electronics, Llc Sliding boom headset
AT411512B (de) 2000-06-30 2004-01-26 Spirit Design Huber Christoffe Hörer
ATE321429T1 (de) 2000-08-11 2006-04-15 Knowles Electronics Llc Breitbandiger miniaturwandler
US6987859B2 (en) 2001-07-20 2006-01-17 Knowles Electronics, Llc. Raised microstructure of silicon based device
US6535460B2 (en) 2000-08-11 2003-03-18 Knowles Electronics, Llc Miniature broadband acoustic transducer
NO313400B1 (no) 2000-09-01 2002-09-23 Nacre As Öreterminal for stöykontroll
US6754359B1 (en) 2000-09-01 2004-06-22 Nacre As Ear terminal with microphone for voice pickup
US6661901B1 (en) 2000-09-01 2003-12-09 Nacre As Ear terminal with microphone for natural voice rendition
NO312570B1 (no) 2000-09-01 2002-05-27 Sintef Stöybeskyttelse med verifiseringsanordning
US7039195B1 (en) 2000-09-01 2006-05-02 Nacre As Ear terminal
NO313730B1 (no) 2000-09-01 2002-11-18 Nacre As Öreterminal med mikrofon for stemmeopptak
NO314429B1 (no) 2000-09-01 2003-03-17 Nacre As Öreterminal med mikrofon for naturlig stemmegjengivelse
NO314380B1 (no) 2000-09-01 2003-03-10 Nacre As Öreterminal
US20020038394A1 (en) 2000-09-25 2002-03-28 Yeong-Chang Liang USB sync-charger and methods of use related thereto
US7577111B2 (en) 2000-11-10 2009-08-18 Toshiba Tec Kabushiki Kaisha Method and system for wireless interfacing of electronic devices
US6847090B2 (en) 2001-01-24 2005-01-25 Knowles Electronics, Llc Silicon capacitive microphone
US20020098877A1 (en) 2001-01-25 2002-07-25 Abraham Glezerman Boom actuated communication headset
EP1246505A1 (de) 2001-03-26 2002-10-02 Widex A/S Hörgerät mit einer Frontplatte, die zur Anpassung an die Hörgeräteschale automatisch hergestellt wird
DK1251714T4 (en) 2001-04-12 2015-07-20 Sound Design Technologies Ltd Digital hearing aid system
US6769767B2 (en) 2001-04-30 2004-08-03 Qr Spex, Inc. Eyewear with exchangeable temples housing a transceiver forming ad hoc networks with other devices
US20020176330A1 (en) 2001-05-22 2002-11-28 Gregory Ramonowski Headset with data disk player and display
US8238912B2 (en) 2001-05-31 2012-08-07 Ipr Licensing, Inc. Non-intrusive detection of enhanced capabilities at existing cellsites in a wireless data communication system
US6717537B1 (en) 2001-06-26 2004-04-06 Sonic Innovations, Inc. Method and apparatus for minimizing latency in digital signal processing systems
US6707923B2 (en) 2001-07-02 2004-03-16 Telefonaktiebolaget Lm Ericsson (Publ) Foldable hook for headset
US20030013411A1 (en) 2001-07-13 2003-01-16 Memcorp, Inc. Integrated cordless telephone and bluetooth dongle
US6362610B1 (en) 2001-08-14 2002-03-26 Fu-I Yang Universal USB power supply unit
US6888811B2 (en) 2001-09-24 2005-05-03 Motorola, Inc. Communication system for location sensitive information and method therefor
US6801632B2 (en) 2001-10-10 2004-10-05 Knowles Electronics, Llc Microphone assembly for vehicular installation
US20030085070A1 (en) 2001-11-07 2003-05-08 Wickstrom Timothy K. Waterproof earphone
US7023066B2 (en) 2001-11-20 2006-04-04 Knowles Electronics, Llc. Silicon microphone
DK1479265T3 (da) 2002-02-28 2008-02-18 Nacre As Stemmeregistrerings- og skelneapparat
EP1493303B1 (de) 2002-04-10 2007-08-22 Sonion A/S Mikrofonbaugruppe mit einem hilfsanalogeingang
US20030207703A1 (en) 2002-05-03 2003-11-06 Liou Ruey-Ming Multi-purpose wireless communication device
US7477754B2 (en) 2002-09-02 2009-01-13 Oticon A/S Method for counteracting the occlusion effects
US6667189B1 (en) 2002-09-13 2003-12-23 Institute Of Microelectronics High performance silicon condenser microphone with perforated single crystal silicon backplate
JP4325172B2 (ja) 2002-11-01 2009-09-02 株式会社日立製作所 近接場光発生プローブ及び近接場光発生装置
US7406179B2 (en) 2003-04-01 2008-07-29 Sound Design Technologies, Ltd. System and method for detecting the insertion or removal of a hearing instrument from the ear canal
US7024010B2 (en) 2003-05-19 2006-04-04 Adaptive Technologies, Inc. Electronic earplug for monitoring and reducing wideband noise at the tympanic membrane
CN1802696A (zh) 2003-06-05 2006-07-12 松下电器产业株式会社 音质调整装置及音质调整方法
JP4000095B2 (ja) 2003-07-30 2007-10-31 株式会社東芝 音声認識方法、装置及びプログラム
US7136500B2 (en) 2003-08-05 2006-11-14 Knowles Electronics, Llc. Electret condenser microphone
DE60304859T2 (de) 2003-08-21 2006-11-02 Bernafon Ag Verfahren zur Verarbeitung von Audiosignalen
US7590254B2 (en) 2003-11-26 2009-09-15 Oticon A/S Hearing aid with active noise canceling
US7899194B2 (en) 2005-10-14 2011-03-01 Boesen Peter V Dual ear voice communication device
US8526646B2 (en) 2004-05-10 2013-09-03 Peter V. Boesen Communication device
US7418103B2 (en) 2004-08-06 2008-08-26 Sony Computer Entertainment Inc. System and method for controlling states of a device
US7433463B2 (en) 2004-08-10 2008-10-07 Clarity Technologies, Inc. Echo cancellation and noise reduction method
US7929714B2 (en) 2004-08-11 2011-04-19 Qualcomm Incorporated Integrated audio codec with silicon audio transducer
KR20070050058A (ko) * 2004-09-07 2007-05-14 코닌클리케 필립스 일렉트로닉스 엔.브이. 향상된 잡음 억제를 구비한 전화통신 디바이스
EA011361B1 (ru) 2004-09-07 2009-02-27 Сенсир Пти Лтд. Аппарат и способ усиления звука
DK1795045T3 (da) 2004-10-01 2013-02-18 Hear Ip Pty Ltd Akustisk transparent okklusionsreduktionssystem og -fremgangsmåde
FI20041625L (fi) 2004-12-17 2006-06-18 Nokia Corp Menetelmä korvakanavasignaalin muuntamiseksi, korvakanavamuunnin ja kuulokkeet
US8050203B2 (en) 2004-12-22 2011-11-01 Eleven Engineering Inc. Multi-channel digital wireless audio system
DK1878305T3 (da) * 2005-03-28 2013-01-14 Knowles Electronics Llc Akustisk arrangement til en transducer
EP1867209A2 (de) 2005-04-06 2007-12-19 Knowles Electronics, LLC Transducer-anordnung und herstellungsverfahren dafür
ATE541411T1 (de) 2005-04-27 2012-01-15 Knowles Electronics Asia Pte Tragbares lautsprechergehäuse
EP1880575A1 (de) 2005-05-09 2008-01-23 Knowles Electronics, LLC Empfänger-mikrofon-einheit
CN101180917A (zh) 2005-05-17 2008-05-14 Nxp股份有限公司 用于mems电容式麦克风的改进膜片
US20070104340A1 (en) 2005-09-28 2007-05-10 Knowles Electronics, Llc System and Method for Manufacturing a Transducer Module
US7983433B2 (en) 2005-11-08 2011-07-19 Think-A-Move, Ltd. Earset assembly
US8571227B2 (en) 2005-11-11 2013-10-29 Phitek Systems Limited Noise cancellation earphone
JP4512028B2 (ja) 2005-11-28 2010-07-28 日本電信電話株式会社 送話装置
US7869610B2 (en) 2005-11-30 2011-01-11 Knowles Electronics, Llc Balanced armature bone conduction shaker
US20070147635A1 (en) 2005-12-23 2007-06-28 Phonak Ag System and method for separation of a user's voice from ambient sound
EP1640972A1 (de) 2005-12-23 2006-03-29 Phonak AG System und Verfahren zum Separieren der Stimme eines Benutzers von dem Umgebungston
US8194880B2 (en) 2006-01-30 2012-06-05 Audience, Inc. System and method for utilizing omni-directional microphones for speech enhancement
US9185487B2 (en) 2006-01-30 2015-11-10 Audience, Inc. System and method for providing noise suppression utilizing null processing noise subtraction
US7477756B2 (en) 2006-03-02 2009-01-13 Knowles Electronics, Llc Isolating deep canal fitting earphone
US8116473B2 (en) 2006-03-13 2012-02-14 Starkey Laboratories, Inc. Output phase modulation entrainment containment for digital filters
US8553899B2 (en) 2006-03-13 2013-10-08 Starkey Laboratories, Inc. Output phase modulation entrainment containment for digital filters
US8848901B2 (en) * 2006-04-11 2014-09-30 Avaya, Inc. Speech canceler-enhancer system for use in call-center applications
JP5054324B2 (ja) * 2006-04-19 2012-10-24 沖電気工業株式会社 音声通信端末の雑音除去装置
US7889881B2 (en) 2006-04-25 2011-02-15 Chris Ostrowski Ear canal speaker system method and apparatus
US8180067B2 (en) 2006-04-28 2012-05-15 Harman International Industries, Incorporated System for selectively extracting components of an audio input signal
US7844453B2 (en) * 2006-05-12 2010-11-30 Qnx Software Systems Co. Robust noise estimation
US7680292B2 (en) 2006-05-30 2010-03-16 Knowles Electronics, Llc Personal listening device
WO2007147049A2 (en) 2006-06-14 2007-12-21 Think-A-Move, Ltd. Ear sensor assembly for speech processing
WO2007147415A1 (en) 2006-06-23 2007-12-27 Gn Resound A/S A hearing aid with a removably connected elongate member
US8249287B2 (en) 2010-08-16 2012-08-21 Bose Corporation Earpiece positioning and retaining
US7773759B2 (en) 2006-08-10 2010-08-10 Cambridge Silicon Radio, Ltd. Dual microphone noise reduction for headset application
DK2095681T5 (en) 2006-10-23 2016-07-25 Starkey Labs Inc AVOIDING FILTER DRIVING WITH A FREQUENCY DOMAIN TRANSFORMATION ALgorithm
US8681999B2 (en) 2006-10-23 2014-03-25 Starkey Laboratories, Inc. Entrainment avoidance with an auto regressive filter
USD573588S1 (en) 2006-10-26 2008-07-22 Knowles Electronic, Llc Assistive listening device
US20080101640A1 (en) 2006-10-31 2008-05-01 Knowles Electronics, Llc Electroacoustic system and method of manufacturing thereof
US8027481B2 (en) 2006-11-06 2011-09-27 Terry Beard Personal hearing control system and method
DK2127467T3 (en) 2006-12-18 2015-11-30 Sonova Ag Active system for hearing protection
TWI310177B (en) 2006-12-29 2009-05-21 Ind Tech Res Inst Noise canceling device and method thereof
US8917894B2 (en) 2007-01-22 2014-12-23 Personics Holdings, LLC. Method and device for acute sound detection and reproduction
WO2008095167A2 (en) 2007-02-01 2008-08-07 Personics Holdings Inc. Method and device for audio recording
EP1973381A3 (de) 2007-03-19 2011-04-06 Starkey Laboratories, Inc. Vorrichtung für belüftete Hörhilfegerätsysteme
WO2008128173A1 (en) 2007-04-13 2008-10-23 Personics Holdings Inc. Method and device for voice operated control
US8081780B2 (en) 2007-05-04 2011-12-20 Personics Holdings Inc. Method and device for acoustic management control of multiple microphones
WO2008153588A2 (en) 2007-06-01 2008-12-18 Personics Holdings Inc. Earhealth monitoring system and method iii
CN101779476B (zh) 2007-06-13 2015-02-25 爱利富卡姆公司 全向性双麦克风阵列
JP5395066B2 (ja) * 2007-06-22 2014-01-22 ヴォイスエイジ・コーポレーション 音声区間検出および音声信号分類ための方法および装置
US20090010453A1 (en) * 2007-07-02 2009-01-08 Motorola, Inc. Intelligent gradient noise reduction system
US20090067661A1 (en) 2007-07-19 2009-03-12 Personics Holdings Inc. Device and method for remote acoustic porting and magnetic acoustic connection
DE102007037561A1 (de) 2007-08-09 2009-02-19 Ceotronics Aktiengesellschaft Audio . Video . Data Communication Schallwandler zur Übertragung von Audiosignalen
WO2009023784A1 (en) 2007-08-14 2009-02-19 Personics Holdings Inc. Method and device for linking matrix control of an earpiece ii
ES2522316T3 (es) 2007-09-24 2014-11-14 Sound Innovations, Llc Dispositivo intraauricular digital electrónico de cancelación de ruido y comunicación
US8280093B2 (en) 2008-09-05 2012-10-02 Apple Inc. Deformable ear tip for earphone and method therefor
GB2456501B (en) 2007-11-13 2009-12-23 Wolfson Microelectronics Plc Ambient noise-reduction system
KR20100092517A (ko) 2007-12-17 2010-08-20 엔엑스피 비 브이 Mems 마이크로폰
US8175291B2 (en) * 2007-12-19 2012-05-08 Qualcomm Incorporated Systems, methods, and apparatus for multi-microphone based speech enhancement
US7869608B2 (en) 2008-01-14 2011-01-11 Apple Inc. Electronic device accessory
US8411880B2 (en) * 2008-01-29 2013-04-02 Qualcomm Incorporated Sound quality by intelligently selecting between signals from a plurality of microphones
US8553923B2 (en) 2008-02-11 2013-10-08 Apple Inc. Earphone having an articulated acoustic tube
US8019107B2 (en) 2008-02-20 2011-09-13 Think-A-Move Ltd. Earset assembly having acoustic waveguide
US20090214068A1 (en) 2008-02-26 2009-08-27 Knowles Electronics, Llc Transducer assembly
US9113240B2 (en) * 2008-03-18 2015-08-18 Qualcomm Incorporated Speech enhancement using multiple microphones on multiple devices
US8085941B2 (en) * 2008-05-02 2011-12-27 Dolby Laboratories Licensing Corporation System and method for dynamic sound delivery
US8285344B2 (en) 2008-05-21 2012-10-09 DP Technlogies, Inc. Method and apparatus for adjusting audio for a user environment
US8831936B2 (en) * 2008-05-29 2014-09-09 Qualcomm Incorporated Systems, methods, apparatus, and computer program products for speech signal processing using spectral contrast enhancement
EP2301261B1 (de) 2008-06-17 2019-02-06 Earlens Corporation Optische elektromechanische hörgeräte mit getrennten stromversorgungs- und signalkomponenten
US8111853B2 (en) 2008-07-10 2012-02-07 Plantronics, Inc Dual mode earphone with acoustic equalization
US8630685B2 (en) * 2008-07-16 2014-01-14 Qualcomm Incorporated Method and apparatus for providing sidetone feedback notification to a user of a communication device with multiple microphones
US8401178B2 (en) 2008-09-30 2013-03-19 Apple Inc. Multiple microphone switching and configuration
CN102177730B (zh) 2008-10-09 2014-07-09 峰力公司 用于拾取用户语音的系统和操作该系统的方法
US8135140B2 (en) 2008-11-20 2012-03-13 Harman International Industries, Incorporated System for active noise control with audio signal compensation
JP5269618B2 (ja) 2009-01-05 2013-08-21 株式会社オーディオテクニカ 骨伝導マイクロホン内蔵ヘッドセット
US8233637B2 (en) 2009-01-20 2012-07-31 Nokia Corporation Multi-membrane microphone for high-amplitude audio capture
US8229125B2 (en) 2009-02-06 2012-07-24 Bose Corporation Adjusting dynamic range of an audio system
US8340635B2 (en) 2009-03-16 2012-12-25 Apple Inc. Capability model for mobile devices
US8213645B2 (en) 2009-03-27 2012-07-03 Motorola Mobility, Inc. Bone conduction assembly for communication headsets
US8238567B2 (en) 2009-03-30 2012-08-07 Bose Corporation Personal acoustic device position determination
EP2237571A1 (de) 2009-03-31 2010-10-06 Nxp B.V. MEMS-Wandler für eine Audiovorrichtung
EP2415278A4 (de) 2009-04-01 2013-05-15 Knowles Electronics Llc Empfängeranordnungen
EP2239961A1 (de) 2009-04-06 2010-10-13 Nxp B.V. Rückplatte für ein Mikrofon
US8503704B2 (en) 2009-04-07 2013-08-06 Cochlear Limited Localisation in a bilateral hearing device system
US8189799B2 (en) 2009-04-09 2012-05-29 Harman International Industries, Incorporated System for active noise control based on audio system output
EP2242288A1 (de) 2009-04-15 2010-10-20 Nxp B.V. Mikrophon mit einstellbaren Merkmalen
US8199924B2 (en) 2009-04-17 2012-06-12 Harman International Industries, Incorporated System for active noise control with an infinite impulse response filter
US8532310B2 (en) 2010-03-30 2013-09-10 Bose Corporation Frequency-dependent ANR reference sound compression
US8077873B2 (en) 2009-05-14 2011-12-13 Harman International Industries, Incorporated System for active noise control with adaptive speaker selection
JP5639160B2 (ja) 2009-06-02 2014-12-10 コーニンクレッカ フィリップス エヌ ヴェ イヤホン配置及びその動作方法
US8666102B2 (en) 2009-06-12 2014-03-04 Phonak Ag Hearing system comprising an earpiece
JP4734441B2 (ja) 2009-06-12 2011-07-27 株式会社東芝 電気音響変換装置
KR101581885B1 (ko) * 2009-08-26 2016-01-04 삼성전자주식회사 복소 스펙트럼 잡음 제거 장치 및 방법
US8116502B2 (en) 2009-09-08 2012-02-14 Logitech International, S.A. In-ear monitor with concentric sound bore configuration
DE102009051713A1 (de) 2009-10-29 2011-05-05 Medizinische Hochschule Hannover Elektomechanischer Wandler
US8401200B2 (en) 2009-11-19 2013-03-19 Apple Inc. Electronic device and headset with speaker seal evaluation capabilities
US20120314882A1 (en) 2009-11-23 2012-12-13 Incus Laboratories Limited Production of ambient noise-cancelling earphones
CN101778322B (zh) * 2009-12-07 2013-09-25 中国科学院自动化研究所 基于多模型和听觉特性的麦克风阵列后滤波语音增强方法
US8705787B2 (en) 2009-12-09 2014-04-22 Nextlink Ipr Ab Custom in-ear headset
CN102111697B (zh) 2009-12-28 2015-03-25 歌尔声学股份有限公司 一种麦克风阵列降噪控制方法及装置
JP5449122B2 (ja) 2010-01-02 2014-03-19 ファイナル・オーディオデザイン事務所株式会社 ドラムエアパワーシステム
US8532323B2 (en) 2010-01-19 2013-09-10 Knowles Electronics, Llc Earphone assembly with moisture resistance
EP2532176B1 (de) 2010-02-02 2013-11-20 Koninklijke Philips N.V. Steuerung für eine kopfhöreranordnung
US9025415B2 (en) 2010-02-23 2015-05-05 Koninklijke Philips N.V. Audio source localization
KR20110106715A (ko) * 2010-03-23 2011-09-29 삼성전자주식회사 후방 잡음 제거 장치 및 방법
US8376967B2 (en) 2010-04-13 2013-02-19 Audiodontics, Llc System and method for measuring and recording skull vibration in situ
US8473287B2 (en) 2010-04-19 2013-06-25 Audience, Inc. Method for jointly optimizing noise reduction and voice quality in a mono or multi-microphone system
US9794700B2 (en) 2010-07-09 2017-10-17 Sivantos Inc. Hearing aid with occlusion reduction
US8311253B2 (en) 2010-08-16 2012-11-13 Bose Corporation Earpiece positioning and retaining
BR112012031656A2 (pt) * 2010-08-25 2016-11-08 Asahi Chemical Ind dispositivo, e método de separação de fontes sonoras, e, programa
US8498428B2 (en) 2010-08-26 2013-07-30 Plantronics, Inc. Fully integrated small stereo headset having in-ear ear buds and wireless connectability to audio source
US8768252B2 (en) 2010-09-02 2014-07-01 Apple Inc. Un-tethered wireless audio system
US8494201B2 (en) 2010-09-22 2013-07-23 Gn Resound A/S Hearing aid with occlusion suppression
US8594353B2 (en) 2010-09-22 2013-11-26 Gn Resound A/S Hearing aid with occlusion suppression and subsonic energy control
EP2434780B1 (de) 2010-09-22 2016-04-13 GN ReSound A/S Hörgerät mit Okklusionsunterdrückung und Infraschallenergiekontrolle
US8503689B2 (en) 2010-10-15 2013-08-06 Plantronics, Inc. Integrated monophonic headset having wireless connectability to audio source
US9240195B2 (en) 2010-11-25 2016-01-19 Goertek Inc. Speech enhancing method and device, and denoising communication headphone enhancing method and device, and denoising communication headphones
EP2647220A4 (de) 2010-12-01 2017-10-11 Sonomax Technologies Inc. Ohrstöpselvorrichtung für verbesserte kommunikation und verfahren dafür
WO2012102464A1 (ko) 2011-01-28 2012-08-02 Shin Doo Sik 이어마이크로폰 및 이어마이크로폰용 전압 제어 장치
DE102011003470A1 (de) 2011-02-01 2012-08-02 Sennheiser Electronic Gmbh & Co. Kg Headset und Hörer
WO2012109384A1 (en) * 2011-02-10 2012-08-16 Dolby Laboratories Licensing Corporation Combined suppression of noise and out - of - location signals
JP2012169828A (ja) 2011-02-14 2012-09-06 Sony Corp 音声信号出力装置、スピーカ装置、音声信号出力方法
US8620650B2 (en) 2011-04-01 2013-12-31 Bose Corporation Rejecting noise with paired microphones
KR101194904B1 (ko) 2011-04-19 2012-10-25 신두식 이어마이크로폰
US9083821B2 (en) 2011-06-03 2015-07-14 Apple Inc. Converting audio to haptic feedback in an electronic device
US8909524B2 (en) * 2011-06-07 2014-12-09 Analog Devices, Inc. Adaptive active noise canceling for handset
US9451351B2 (en) 2011-06-16 2016-09-20 Sony Corporation In-ear headphone
US8363823B1 (en) 2011-08-08 2013-01-29 Audience, Inc. Two microphone uplink communication and stereo audio playback on three wire headset assembly
CN102300140B (zh) * 2011-08-10 2013-12-18 歌尔声学股份有限公司 一种通信耳机的语音增强方法及降噪通信耳机
US9571921B2 (en) 2011-08-22 2017-02-14 Knowles Electronics, Llc Receiver acoustic low pass filter
US8903722B2 (en) * 2011-08-29 2014-12-02 Intel Mobile Communications GmbH Noise reduction for dual-microphone communication devices
US20130058495A1 (en) 2011-09-01 2013-03-07 Claus Erdmann Furst System and A Method For Streaming PDM Data From Or To At Least One Audio Component
US9467775B2 (en) * 2011-09-02 2016-10-11 Gn Netcom A/S Method and a system for noise suppressing an audio signal
US9711127B2 (en) 2011-09-19 2017-07-18 Bitwave Pte Ltd. Multi-sensor signal optimization for speech communication
US9042588B2 (en) 2011-09-30 2015-05-26 Apple Inc. Pressure sensing earbuds and systems and methods for the use thereof
US20130142358A1 (en) 2011-12-06 2013-06-06 Knowles Electronics, Llc Variable Directivity MEMS Microphone
US9451357B2 (en) 2012-02-10 2016-09-20 Temco Japan Co., Ltd. Bone transmission earphone
GB2530678B (en) 2012-02-21 2016-05-18 Cirrus Logic Int Semiconductor Ltd Noise cancellation system
US20130272564A1 (en) 2012-03-16 2013-10-17 Knowles Electronics, Llc Receiver with a non-uniform shaped housing
KR101341308B1 (ko) 2012-03-29 2013-12-12 신두식 이어셋용 방음하우징 및 그를 구비하는 유.무선 이어셋
CN104396275B (zh) 2012-03-29 2017-09-29 海宝拉株式会社 使用耳内插入型麦克风的有线无线耳机
KR101246990B1 (ko) 2012-03-29 2013-03-25 신두식 이동통신단말기 분실 방지 기능을 갖는 헤드셋 및 분실 방지 기능을 갖는 헤드셋 시스템
US8682014B2 (en) 2012-04-11 2014-03-25 Apple Inc. Audio device with a voice coil channel and a separately amplified telecoil channel
US9014387B2 (en) 2012-04-26 2015-04-21 Cirrus Logic, Inc. Coordinated control of adaptive noise cancellation (ANC) among earspeaker channels
US9082388B2 (en) 2012-05-25 2015-07-14 Bose Corporation In-ear active noise reduction earphone
US20130343580A1 (en) 2012-06-07 2013-12-26 Knowles Electronics, Llc Back Plate Apparatus with Multiple Layers Having Non-Uniform Openings
US9966067B2 (en) * 2012-06-08 2018-05-08 Apple Inc. Audio noise estimation and audio noise reduction using multiple microphones
US9047855B2 (en) 2012-06-08 2015-06-02 Bose Corporation Pressure-related feedback instability mitigation
US9100756B2 (en) 2012-06-08 2015-08-04 Apple Inc. Microphone occlusion detector
US20130345842A1 (en) 2012-06-25 2013-12-26 Lenovo (Singapore) Pte. Ltd. Earphone removal detection
US9516407B2 (en) 2012-08-13 2016-12-06 Apple Inc. Active noise control with compensation for error sensing at the eardrum
KR101946486B1 (ko) 2012-08-23 2019-04-26 삼성전자 주식회사 이어폰 접속 인터페이스 및 이어폰 운용 방법과, 이를 지원하는 단말기
EP3462452A1 (de) * 2012-08-24 2019-04-03 Oticon A/s Geräuschschätzung zur verwendung mit geräuschreduzierung und echounterdrückung in persönlicher kommunikation
CN102831898B (zh) * 2012-08-31 2013-11-13 厦门大学 带声源方向跟踪功能的麦克风阵列语音增强装置及其方法
CN104704560B (zh) * 2012-09-04 2018-06-05 纽昂斯通讯公司 共振峰依赖的语音信号增强
US9330652B2 (en) 2012-09-24 2016-05-03 Apple Inc. Active noise cancellation using multiple reference microphone signals
US9264823B2 (en) 2012-09-28 2016-02-16 Apple Inc. Audio headset with automatic equalization
US9208769B2 (en) 2012-12-18 2015-12-08 Apple Inc. Hybrid adaptive headphone
US9282406B2 (en) * 2012-12-19 2016-03-08 Knowles Electronics, Llc Digital microphone with frequency booster
US9084035B2 (en) 2013-02-20 2015-07-14 Qualcomm Incorporated System and method of detecting a plug-in type based on impedance comparison
JP6193468B2 (ja) 2013-03-14 2017-09-06 アップル インコーポレイテッド スピーカアレイを用いた堅牢なクロストークキャンセル
US9363596B2 (en) 2013-03-15 2016-06-07 Apple Inc. System and method of mixing accelerometer and microphone signals to improve voice quality in a mobile device
US20140273851A1 (en) 2013-03-15 2014-09-18 Aliphcom Non-contact vad with an accelerometer, algorithmically grouped microphone arrays, and multi-use bluetooth hands-free visor and headset
US9854081B2 (en) 2013-03-15 2017-12-26 Apple Inc. Volume control for mobile device using a wireless device
US20140355787A1 (en) 2013-05-31 2014-12-04 Knowles Electronics, Llc Acoustic receiver with internal screen
US9054223B2 (en) * 2013-06-17 2015-06-09 Knowles Electronics, Llc Varistor in base for MEMS microphones
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
US9641950B2 (en) 2013-08-30 2017-05-02 Knowles Electronics, Llc Integrated CMOS/MEMS microphone die components
WO2015031660A1 (en) 2013-08-30 2015-03-05 Knowles Electronics Llc Integrated cmos/mems microphone die
US9439011B2 (en) 2013-10-23 2016-09-06 Plantronics, Inc. Wearable speaker user detection
US9704472B2 (en) 2013-12-10 2017-07-11 Cirrus Logic, Inc. Systems and methods for sharing secondary path information between audio channels in an adaptive noise cancellation system
US20150172807A1 (en) * 2013-12-13 2015-06-18 Gn Netcom A/S Apparatus And A Method For Audio Signal Processing
US9271077B2 (en) * 2013-12-17 2016-02-23 Personics Holdings, Llc Method and system for directional enhancement of sound using small microphone arrays
US9532131B2 (en) 2014-02-21 2016-12-27 Apple Inc. System and method of improving voice quality in a wireless headset with untethered earbuds of a mobile device
US9293128B2 (en) 2014-02-22 2016-03-22 Apple Inc. Active noise control with compensation for acoustic leak in personal listening devices
EP2916321B1 (de) * 2014-03-07 2017-10-25 Oticon A/s Verarbeitung eines verrauschten audiosignals zur schätzung der ziel- und rauschspektrumsvarianzen
US20150296305A1 (en) 2014-04-10 2015-10-15 Knowles Electronics, Llc Optimized back plate used in acoustic devices
US20150296306A1 (en) 2014-04-10 2015-10-15 Knowles Electronics, Llc. Mems motors having insulated substrates
US9486823B2 (en) 2014-04-23 2016-11-08 Apple Inc. Off-ear detector for personal listening device with active noise control
US20160007119A1 (en) 2014-04-23 2016-01-07 Knowles Electronics, Llc Diaphragm Stiffener
US10176823B2 (en) 2014-05-09 2019-01-08 Apple Inc. System and method for audio noise processing and noise reduction
CN204119490U (zh) 2014-05-16 2015-01-21 美商楼氏电子有限公司 接收器
CN204168483U (zh) 2014-05-16 2015-02-18 美商楼氏电子有限公司 接收器
CN204145685U (zh) 2014-05-16 2015-02-04 美商楼氏电子有限公司 包括具有返回路径的壳体的接收器
US20150365770A1 (en) 2014-06-11 2015-12-17 Knowles Electronics, Llc MEMS Device With Optical Component
US9467761B2 (en) 2014-06-27 2016-10-11 Apple Inc. In-ear earphone with articulating nozzle and integrated boot
US9942873B2 (en) 2014-07-25 2018-04-10 Apple Inc. Concurrent data communication and voice call monitoring using dual SIM
US20160037261A1 (en) 2014-07-29 2016-02-04 Knowles Electronics, Llc Composite Back Plate And Method Of Manufacturing The Same
US20160037263A1 (en) 2014-08-04 2016-02-04 Knowles Electronics, Llc Electrostatic microphone with reduced acoustic noise
US9743191B2 (en) 2014-10-13 2017-08-22 Knowles Electronics, Llc Acoustic apparatus with diaphragm supported at a discrete number of locations
US9872116B2 (en) 2014-11-24 2018-01-16 Knowles Electronics, Llc Apparatus and method for detecting earphone removal and insertion
US20160165334A1 (en) 2014-12-03 2016-06-09 Knowles Electronics, Llc Hearing device with self-cleaning tubing
US20160165361A1 (en) 2014-12-05 2016-06-09 Knowles Electronics, Llc Apparatus and method for digital signal processing with microphones
CN204681587U (zh) 2014-12-17 2015-09-30 美商楼氏电子有限公司 驻极体麦克风
CN204681593U (zh) 2014-12-17 2015-09-30 美商楼氏电子有限公司 驻极体麦克风
CN204669605U (zh) 2014-12-17 2015-09-23 美商楼氏电子有限公司 声学设备

Also Published As

Publication number Publication date
US9401158B1 (en) 2016-07-26
CN108028049A (zh) 2018-05-11
WO2017048470A1 (en) 2017-03-23
US20170078790A1 (en) 2017-03-16
US9961443B2 (en) 2018-05-01
CN108028049B (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
DE112016004161T5 (de) Mikrofonsignalzusammenführung
DE112009001003B4 (de) Geräuschunterdrückungssystem mit zwei Mikrophonen
DE69509555T2 (de) Verfahren zur veränderung eines sprachsignales mittels grundfrequenzmanipulation
DE60116255T2 (de) Rauschunterdückungsvorrichtung und -verfahren
DE10041512B4 (de) Verfahren und Vorrichtung zur künstlichen Erweiterung der Bandbreite von Sprachsignalen
DE112011104737B4 (de) Geräuschunterdrückungsvorrichtung
DE69531336T2 (de) Abgriffeinstellungen-Optimierung von adaptiven Filtern für Telekonferenz-Teilbandechokompensator
EP3451705B1 (de) Verfahren und vorrichtung zum schnellen erkennen der eigenen stimme
DE112012005855B4 (de) Störungsunterdrückungsvorrichtung
DE112012000052B4 (de) Verfahren und Vorrichtung zum Ausblenden von Windgeräuschen
DE112011105791B4 (de) Störungsunterdrückungsvorrichtung
DE112016006218B4 (de) Schallsignal-Verbesserungsvorrichtung
DE10017646A1 (de) Geräuschunterdrückung im Zeitbereich
DE102008039330A1 (de) Vorrichtung und Verfahren zum Berechnen von Filterkoeffizienten zur Echounterdrückung
DE112014003337T5 (de) Sprachsignaltrennung und Synthese basierend auf auditorischer Szenenanalyse und Sprachmodellierung
DE112017007005B4 (de) Akustiksignal-verarbeitungsvorrichtung, akustiksignalverarbeitungsverfahren und freisprech-kommunikationsvorrichtung
DE112016006126T5 (de) Okklusionsreduzierung und Rauschunterdrückung auf der Grundlage einer Dichtqualität
DE2526034A1 (de) Hoerhilfeverfahren und vorrichtung zur durchfuehrung des verfahrens
DE102012107952A1 (de) Rauschreduzierung für Dual-Mikrofon-Kommunikationsgeräte
DE112011106045B4 (de) Audiosignal-Wiederherstellungsvorrichtung und Audiosignal-Wiederherstellungsverfahren
WO2007073949A1 (de) Verfahren und vorrichtung zur künstlichen erweiterung der bandbreite von sprachsignalen
DE112016006334T5 (de) Verfahren und systeme zur erreichung einer konsistenz bei der rauschunterdrückung während sprachphasen und sprachfreien phasen
DE112014000945B4 (de) Sprachbetonungsgerät
EP3110172A1 (de) Verfahren zur signalverarbeitung in einem binauralen hörgerät
DE202019107201U1 (de) Binaurales Hörgerät für eine verbesserte räumliche Hörwahrnehmung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee