CN108810838A - 基于智能手机室内背景声感知的房间级定位方法 - Google Patents
基于智能手机室内背景声感知的房间级定位方法 Download PDFInfo
- Publication number
- CN108810838A CN108810838A CN201810560130.9A CN201810560130A CN108810838A CN 108810838 A CN108810838 A CN 108810838A CN 201810560130 A CN201810560130 A CN 201810560130A CN 108810838 A CN108810838 A CN 108810838A
- Authority
- CN
- China
- Prior art keywords
- room
- background sound
- background
- indoor
- positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000004807 localization Effects 0.000 title claims abstract description 11
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims description 12
- 230000005236 sound signal Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000001228 spectrum Methods 0.000 claims description 7
- 210000002569 neuron Anatomy 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 4
- 238000009432 framing Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims 4
- 230000021615 conjugation Effects 0.000 claims 1
- 230000001256 tonic effect Effects 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract description 13
- 230000008447 perception Effects 0.000 abstract description 7
- 230000008676 import Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 6
- 210000004027 cell Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/33—Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0252—Radio frequency fingerprinting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/45—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Mobile Radio Communication Systems (AREA)
- Telephone Function (AREA)
Abstract
本发明公开了一种基于智能手机室内背景声感知的房间级定位方法,包括室内房间背景声线下采集和训练,以及待定位地点背景声线上定位二个阶段。利用智能手机录取室内环境声,通过提取声音功率的第五百分位功率作为声学特征,导入RNN‑LSTM学习算法,训练得出特定室内背景声定位模型,通过与真实环境的房间信息比对可计算出房间的识别率,识别出房间即可实现房间级定位。相对传统同类声特征室内定位系统而言,本发明方法不仅达到房间级定位的要求,而且提高了房间识别率,更适用于室内背景声定位场景中。
Description
技术领域
本发明涉及室内房间级的定位方法,具体是一种基于智能手机室内背景声感知的房间级定位方法。
背景技术
GPS为代表的定位技术自从出现以来,以其高效、迅速、精确的特性使人们的生活方式发生剧变,同时带动了其服务与应用的蓬勃发展,给人们的生活带来了极大的便利。但是传统的室外定位技术(例如GPS)由于原理的局限性,在室内条件下的表现不尽理想,因此急需一种高效、便捷、准确的室内定位技术来填补空白。
当前较成熟的有基于Wifi、蓝牙、红外线、超声波等室内定位技术。基于WiFi的定位技术基础设备易于安装,但易受其它信号干扰、功耗较高;基于蓝牙的定位技术功耗低、易集成,但定位距离短,稳定性较差、易受噪声干扰;基于红外的定位技术精度高,但不能穿越障碍,同时造价高,功耗较大;基于超声波的室内定位技术整体精度高,结构简单,但存在多径效应、衰减明显、易受温度影响、成本高。
基于背景声定位的技术优点在于无需预布置其它基础设施且背景声极易被获取。事实上,背景声作为一种时间与空间分布特殊的声波传播形式,作用于人类听觉系统,会形成一定规律的听觉感知效应。同时,背景声也是一种信息载体,反映发声体的物理属性、外部激励力等众多环境因素的重要特性。此外,建筑声学领域提出:房间的持续声音和房间的冲击响应相结合形成了每一间房间的独特背景声。即使是人耳听觉相近的两个房间,由于房间结构所产生的持久化声音仍然能够较精确的区分两个不同的房间。因此利用背景声进行定位是可行的。
己有部分室内指纹定位系统,利用智能手机多传感优势,采集WiFi、声音、视觉图像、加速度计数据作为指纹,进行多信息的融合定位;少数文献则专门研究室内环境背景声定位的方法,如:通过背景声指纹提取和KNN算法进行背景声室内定位等。然而,受不同声学特征及不同声识别分类算法的影响,定位精度普遍较低。
发明内容
针对传统室内定位需要预部署基础设施的缺点,本发明提供一种基于智能手机室内背景声感知的房间级定位方法,仅需利用智能手机采集室内房间背景声,提取背景声音指纹并建立背景声模型;通过RNN-LSTM学习算法训练出一个适用于室内背景声场景下的定位模型,应用于室内房间级的定位。
本发明基于智能手机室内背景声感知的房间级定位方法,包括(1)室内房间背景声线下采集和训练,以及(2)待定位地点背景声线上定位二个阶段。
阶段(1)所述室内房间背景声线下采集与训练,具体方法包括如下步骤:
(1.1)采集室内房间背景声与特征提取:
利用智能手机线下采集足量的房间背景声数据,进行背景声特征提取,通过第五百分位功率提取出背景声指纹;
(1.2)构建背景声指纹库:
将背景声指纹与人工标注的房间标记信息共同构成房间背景声指纹库;
(1.3)训练过程:
构建了背景声指纹库之后,以此为训练集数据,通过RNN-LSTM深度学习算法训练出适用于背景声室内定位场景下的定位模型,此模型需有较高的泛化能力,能较好的反映整个样本空间的特征。
阶段(2)所述待定位地点背景声线上定位,具体方法包括如下步骤:
(2.1)获取待定位地点背景声测试集指纹数据:
录制室内待定位地点背景声,进行第五百分功率提取,得出的背景声指纹作为测试集数据;
(2.2)将测试集数据输入线下训练的背景声定位模型,输入后,输出为房间标记信息,通过与真实环境的房间信息比对可计算出房间的识别率,识别出房间即可实现房间级定位。
本发明通过第五百分位功率提取背景声指纹,利用RNN-LSTM算法建立室内背景声定位模型,使得房间识别率有较大幅度的提升。
步骤(1.1)所述第五百分位功率提取出背景声指纹,包括如下步骤:
(1.1.1)对采集的原始音频序列进行分帧加窗操作,得到短时平稳的背景声信号,窗函数为:
(1.1.2)将分帧加窗之后的每一帧音频信号做FFT变换,保留FFT变换的前二分之一数据,并乘上它的共轭,可求出功率谱;
FFT变换公式为:
(1.1.3)舍弃频率大于7kHz的音频信号;
(1.1.4)对剩余的数据按功率大小进行排序;
(1.1.5)提取功率的第五百分列并取对数,得到背景声指纹。
步骤(2.1)所述的进行第五百分功率提取,其方法与步骤(1.1)相同。前两步是标准的功率谱计算方法。求出功率谱之后,需要提取功率谱中鲁棒性高的特征向量以表征房间背景声。由于想要提取的是房间中的背景声,此特征应该具有时间平稳性,因此需要抑制瞬态噪声。在窗口采样过程中通过选择每个频率下观测的背景声功率的最小值来提取背景声谱。然而,最小值容易受到外界噪声以及预处理过程的干扰,因此选择临近功率最小值的一组特征向量代替最小值,即功率第五百分位特征向量。
步骤(1.3)所述RNN-LSTM学习算法训练定位模型,包括如下步骤:
(1.3.1)确定参数:初始化输入层、隐藏层、输出层的权值矩阵;
(1.3.2)前向传播:前向计算每个神经元的输出值;
(1.3.3)反向传播:反向计算每个神经元的误差项,RNN-LSTM误差项的方向传播包括两个方向:一个是沿时间的方向传播,即从当前t时刻开始,计算每个时刻的误差项;一个是将误差项向上一层传播;
(1.3.4)根据相应的误差项进行参数权重的迭代更新计算。
RNN-LSTM利用LSTM细胞代替常规网络单元的RNN的高级版本。LSTM细胞的基础原理是运用不同类型的门来操控网络中的信息流。通过门结构,LSTM细胞可以决定什么时候应该记住输入信息,什么时候应该忘记该信息以及什么时候应该输出该信息。因此其是一种能够长时间保存信息的复杂且精巧的网络单元RNN-LSTM。可以解决由于梯度消失或爆炸引起的短周期依赖问题,以实现长期记忆的效果。
步骤(2.2)所述房间识别率的计算:是根据模型输出的结果与真实环境的房间标记进行比对,可计算出房间的识别率p;
其中,yi表示利用模型计算出的房间标记,表示真实环境下的房间标记,表示当其值为1;否则其值为0。
本发明基于智能手机室内背景声感知的房间级定位方法,该方法无需预部署其它基础设施,仅需利用智能手机采集房间背景声,提取第五百分位功率作为背景声指纹特征。该特征提取方法相对于MFCC等特征提取方法,计算简单,通过RNN-LSTM深度学习算法训练得出的模型识别率高,相较传统模型性能有较大程度的提升,更适用于室内背景声定位场景中。
附图说明
图1为本发明定位方法中室内房间背景声线下采集与训练过程框图;
图2为本发明定位方法中待定位地点背景声线上定位过程框图。
具体实施方式
下面结合附图对本发明内容作进一步的说明,但不是对本发明的限定。
参照图1-2,本发明基于智能手机室内背景声感知的房间级定位方法,包括如下步骤:
(1)室内房间背景声线下采集与训练
(1.1)采集室内房间背景声与特征提取:
利用智能手机线下采集足量的房间背景声数据,进行背景声特征提取,通过第五百分位功率提取出背景声指纹;
(1.2)构建背景声指纹库:
将背景声指纹与人工标注的房间标记信息共同构成房间背景声指纹库;
(1.3)训练过程:
构建了背景声指纹库之后,以此为训练集数据,通过RNN-LSTM深度学习算法训练出适用于背景声室内定位场景下的定位模型,此模型需有较高的泛化能力,能较好的反映整个样本空间的特征;
(2)待定位地点背景声线上定位
(2.1)获取待定位地点背景声测试集指纹数据:
录制室内待定位地点背景声,进行第五百分功率提取,得出的背景声指纹作为测试集数据;
(2.2)将测试集数据输入线下训练的背景声定位模型,输入后,输出为房间标记信息,通过与真实环境的房间信息比对可计算出房间的识别率,识别出房间即可实现房间级定位。
步骤(1.1)所述第五百分位功率提取出背景声指纹,包括如下步骤:
(1.1.1)对采集的原始音频序列进行分帧加窗操作,得到短时平稳的背景声信号,窗函数为:
(1.1.2)将分帧加窗之后的每一帧音频信号做FFT变换,保留FFT变换的前二分之一数据,并乘上它的共轭,可求出功率谱;
FFT变换公式为:
(1.1.3)舍弃频率大于7kHz的音频信号;
(1.1.4)对剩余的数据按功率大小进行排序;
(1.1.5)提取功率的第五百分列并取对数,得到背景声指纹。
步骤(2.1)所述的进行第五百分功率提取,其方法与步骤(1.1)相同。
步骤(1.3)所述RNN-LSTM学习算法训练定位模型,包括如下步骤:
(1.3.1)确定参数:初始化输入层、隐藏层、输出层的权值矩阵;
(1.3.2)前向传播:前向计算每个神经元的输出值;
(1.3.3)反向传播:反向计算每个神经元的误差项,RNN-LSTM误差项的方向传播包括两个方向:一个是沿时间的方向传播,即从当前t时刻开始,计算每个时刻的误差项;一个是将误差项向上一层传播;
(1.3.4)根据相应的误差项进行参数权重的迭代更新计算。
步骤(2.2)所述房间识别率的计算:是根据模型输出的结果与真实环境的房间标记进行比对,可计算出房间的识别率p;
其中,yi表示利用模型计算出的房间标记,表示真实环境下的房间标记,表示当其值为1;否则其值为0。
本发明利用智能手机录取室内环境声,通过提取声音功率的第五百分位功率作为声学特征,导入RNN-LSTM学习算法,训练特定室内背景声定位模型,相对传统同类声特征室内定位系统而言,采用本发明方法在15个房间中的识别率达到90%以上,不仅达到房间级定位的要求,而且提高了房间识别率。
Claims (4)
1.基于智能手机室内背景声感知的房间级定位方法,包括(1)室内房间背景声线下采集和训练,以及(2)待定位地点背景声线上定位二个阶段,其特征在于:
阶段(1)所述室内房间背景声线下采集与训练,具体方法包括如下步骤:
(1.1)采集室内房间背景声与特征提取:
利用智能手机线下采集足量的房间背景声数据,进行背景声特征提取,通过第五百分位功率提取出背景声指纹;
(1.2)构建背景声指纹库:
将背景声指纹与人工标注的房间标记信息共同构成房间背景声指纹库;
(1.3)训练过程:
构建了背景声指纹库之后,以此为训练集数据,通过RNN-LSTM深度学习算法训练出适用于背景声室内定位场景下的定位模型;
阶段(2)所述待定位地点背景声线上定位,具体方法包括如下步骤:
(2.1)获取待定位地点背景声测试集指纹数据:
录制室内待定位地点背景声,进行第五百分功率提取,得出的背景声指纹作为测试集数据;
(2.2)将测试集数据输入线下训练的背景声定位模型,输入后,输出为房间标记信息,通过与真实环境的房间信息比对可计算出房间的识别率,识别出房间即可实现房间级定位。
2.根据权利要求1所述的基于智能手机室内背景声感知的房间级定位方法,其特征在于:步骤(1.1)所述第五百分位功率提取出背景声指纹,包括如下步骤:(1.1.1)对采集的原始音频序列进行分帧加窗操作,得到短时平稳的背景声信号,窗函数为:
(1.1.2)将分帧加窗之后的每一帧音频信号做FFT变换,保留FFT变换的前二分之一数据,并乘上它的共轭,可求出功率谱;
FFT变换公式为:
(1.1.3)舍弃频率大于7kHz的音频信号;
(1.1.4)对剩余的数据按功率大小进行排序;
(1.1.5)提取功率的第五百分列并取对数,得到背景声指纹。
3.根据权利要求1所述的基于智能手机室内背景声感知的房间级定位方法,其特征在于:步骤(1.3)所述RNN-LSTM学习算法训练定位模型,包括如下步骤:
(1.3.1)确定参数:初始化输入层、隐藏层、输出层的权值矩阵;
(1.3.2)前向传播:前向计算每个神经元的输出值;
(1.3.3)反向传播:反向计算每个神经元的误差项,RNN-LSTM误差项的方向传播包括两个方向:一个是沿时间的方向传播,即从当前t时刻开始,计算每个时刻的误差项;一个是将误差项向上一层传播;
(1.3.4)根据相应的误差项进行参数权重的迭代更新计算。
4.根据权利要求1所述的基于智能手机室内背景声感知的房间级定位方法,其特征在于:步骤(2.2)所述房间识别率的计算:是根据定位模型输出的结果与真实环境的房间标记进行比对,可计算出房间的识别率p;
其中,yi表示利用模型计算出的房间标记,表示真实环境下的房间标记,表示当其值为1;否则其值为0。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201810560130.9A CN108810838A (zh) | 2018-06-03 | 2018-06-03 | 基于智能手机室内背景声感知的房间级定位方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201810560130.9A CN108810838A (zh) | 2018-06-03 | 2018-06-03 | 基于智能手机室内背景声感知的房间级定位方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN108810838A true CN108810838A (zh) | 2018-11-13 |
Family
ID=64090138
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201810560130.9A Pending CN108810838A (zh) | 2018-06-03 | 2018-06-03 | 基于智能手机室内背景声感知的房间级定位方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN108810838A (zh) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109547936A (zh) * | 2018-12-29 | 2019-03-29 | 桂林电子科技大学 | 基于Wi-Fi信号和环境背景声的室内定位方法 |
| CN110333484A (zh) * | 2019-07-15 | 2019-10-15 | 桂林电子科技大学 | 基于环境背景声感知与分析的室内区域级定位方法 |
| JP2020083314A (ja) * | 2018-11-29 | 2020-06-04 | 現代自動車株式会社Hyundai Motor Company | 周辺騒音を用いた走行安全制御システム及びその制御方法 |
| CN111415678A (zh) * | 2019-01-07 | 2020-07-14 | 意法半导体公司 | 对移动设备或可穿戴设备进行开放或封闭空间环境分类 |
| CN112040408A (zh) * | 2020-08-14 | 2020-12-04 | 山东大学 | 一种适用于监管场所的多目标精确智能定位跟踪方法 |
| CN114339600A (zh) * | 2022-01-10 | 2022-04-12 | 浙江德清知路导航科技有限公司 | 一种基于5g信号和声波信号的电子设备室内定位系统和方法 |
| US20220317272A1 (en) * | 2021-03-31 | 2022-10-06 | At&T Intellectual Property I, L.P. | Using Scent Fingerprints and Sound Fingerprints for Location and Proximity Determinations |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20020097882A1 (en) * | 2000-11-29 | 2002-07-25 | Greenberg Jeffry Allen | Method and implementation for detecting and characterizing audible transients in noise |
| CN105976827A (zh) * | 2016-05-26 | 2016-09-28 | 南京邮电大学 | 一种基于集成学习的室内声源定位方法 |
| CN106535134A (zh) * | 2016-11-22 | 2017-03-22 | 上海斐讯数据通信技术有限公司 | 一种基于wifi的多房间定位方法及服务器 |
| CN107703486A (zh) * | 2017-08-23 | 2018-02-16 | 南京邮电大学 | 一种基于卷积神经网络cnn的声源定位算法 |
-
2018
- 2018-06-03 CN CN201810560130.9A patent/CN108810838A/zh active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20020097882A1 (en) * | 2000-11-29 | 2002-07-25 | Greenberg Jeffry Allen | Method and implementation for detecting and characterizing audible transients in noise |
| CN105976827A (zh) * | 2016-05-26 | 2016-09-28 | 南京邮电大学 | 一种基于集成学习的室内声源定位方法 |
| CN106535134A (zh) * | 2016-11-22 | 2017-03-22 | 上海斐讯数据通信技术有限公司 | 一种基于wifi的多房间定位方法及服务器 |
| CN107703486A (zh) * | 2017-08-23 | 2018-02-16 | 南京邮电大学 | 一种基于卷积神经网络cnn的声源定位算法 |
Non-Patent Citations (2)
| Title |
|---|
| TARZIA S P ET AL: "Indoor Localization without Infrastructure Using the Acoustic Background Spectrum", 《INTENATIONAL CONFERENCE ON MOBILE SYSTEMS,APPLICATIONS AND SERVICES,ACM》 * |
| 陈文婧: "基于环境感知的智能手机室内定位系统的设计和实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020083314A (ja) * | 2018-11-29 | 2020-06-04 | 現代自動車株式会社Hyundai Motor Company | 周辺騒音を用いた走行安全制御システム及びその制御方法 |
| CN109547936A (zh) * | 2018-12-29 | 2019-03-29 | 桂林电子科技大学 | 基于Wi-Fi信号和环境背景声的室内定位方法 |
| CN111415678A (zh) * | 2019-01-07 | 2020-07-14 | 意法半导体公司 | 对移动设备或可穿戴设备进行开放或封闭空间环境分类 |
| CN111415678B (zh) * | 2019-01-07 | 2024-02-27 | 意法半导体公司 | 对移动设备或可穿戴设备进行开放或封闭空间环境分类 |
| CN110333484A (zh) * | 2019-07-15 | 2019-10-15 | 桂林电子科技大学 | 基于环境背景声感知与分析的室内区域级定位方法 |
| CN110333484B (zh) * | 2019-07-15 | 2021-04-13 | 桂林电子科技大学 | 基于环境背景声感知与分析的室内区域级定位方法 |
| CN112040408A (zh) * | 2020-08-14 | 2020-12-04 | 山东大学 | 一种适用于监管场所的多目标精确智能定位跟踪方法 |
| CN112040408B (zh) * | 2020-08-14 | 2021-08-03 | 山东大学 | 一种适用于监管场所的多目标精确智能定位跟踪方法 |
| US20220317272A1 (en) * | 2021-03-31 | 2022-10-06 | At&T Intellectual Property I, L.P. | Using Scent Fingerprints and Sound Fingerprints for Location and Proximity Determinations |
| US12204009B2 (en) * | 2021-03-31 | 2025-01-21 | At&T Intellectual Property I, L.P. | Using scent fingerprints and sound fingerprints for location and proximity determinations |
| CN114339600A (zh) * | 2022-01-10 | 2022-04-12 | 浙江德清知路导航科技有限公司 | 一种基于5g信号和声波信号的电子设备室内定位系统和方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108810838A (zh) | 基于智能手机室内背景声感知的房间级定位方法 | |
| Heittola et al. | Context-dependent sound event detection | |
| CN113314127B (zh) | 基于空间方位的鸟鸣识别方法、系统、计算机设备与介质 | |
| CN110503971A (zh) | 用于语音处理的基于神经网络的时频掩模估计和波束形成 | |
| CN110910891B (zh) | 基于长短时记忆深度神经网络的说话人分段标注方法 | |
| CN103456301A (zh) | 一种基于环境声音的场景识别方法及装置及移动终端 | |
| Dorfan et al. | Tree-based recursive expectation-maximization algorithm for localization of acoustic sources | |
| CN111341319B (zh) | 一种基于局部纹理特征的音频场景识别方法及系统 | |
| CN102074236A (zh) | 一种分布式麦克风的说话人聚类方法 | |
| Hwang et al. | Environmental audio scene and activity recognition through mobile-based crowdsourcing | |
| CN116631386B (zh) | 一种基于融合通道注意力机制的残差模块的声音事件定位与识别方法 | |
| CN119296548B (zh) | 一种面向国家重点保护鸟类监测的鸟声事件检测方法及系统 | |
| CN106019230B (zh) | 一种基于i-vector说话人识别的声源定位方法 | |
| CN111179959B (zh) | 一种基于说话人嵌入空间的竞争说话人数量估计方法及系统 | |
| CN107202559A (zh) | 基于室内声学信道扰动分析的物体识别方法 | |
| CN110333484B (zh) | 基于环境背景声感知与分析的室内区域级定位方法 | |
| CN103544953B (zh) | 一种基于背景噪声最小统计量特征的声音环境识别方法 | |
| WO2023273469A1 (zh) | 模型训练方法、语音检测定位方法、装置、设备及介质 | |
| CN116164751B (zh) | 一种室内音频指纹定位方法、系统、介质、设备及终端 | |
| Qian et al. | Sloclas: A database for joint sound localization and classification | |
| CN109031202A (zh) | 基于听觉场景分析的室内环境区域定位系统及方法 | |
| CN117594061A (zh) | 一种基于多尺度特征注意力网络的声音检测与定位方法 | |
| CN116978393A (zh) | 一种语音处理方法、装置、设备、存储介质及程序产品 | |
| CN116259313A (zh) | 一种基于时域卷积网络的声音事件定位和检测方法 | |
| Vargas et al. | A compressed encoding scheme for approximate TDOA estimation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181113 |
|
| RJ01 | Rejection of invention patent application after publication |