CN119450008A - 基于语义分析的视音频自主赋能方法 - Google Patents
基于语义分析的视音频自主赋能方法 Download PDFInfo
- Publication number
- CN119450008A CN119450008A CN202411681239.XA CN202411681239A CN119450008A CN 119450008 A CN119450008 A CN 119450008A CN 202411681239 A CN202411681239 A CN 202411681239A CN 119450008 A CN119450008 A CN 119450008A
- Authority
- CN
- China
- Prior art keywords
- target
- video
- audio
- analysis
- semantic analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Alarm Systems (AREA)
Abstract
本发明涉及数据分析技术领域,特别涉及一种基于语义分析的视音频自主赋能方法,通过分析音频中的语音内容,结合视频中的场景信息,智能调度视频摄像头,优先选择与目标最相关的区域进行实时解析。这一方案有效减少了对所有摄像头视频流的实时解析需求,优化了系统资源的使用,并通过语义分析推测目标的后续行为,进一步提高了监控系统的响应速度和定位精度。
Description
技术领域
本发明涉及数据分析技术领域,特别涉及一种基于语义分析的视音频自主赋能方法。
背景技术
随着智慧城市和公共安全领域对视频监控系统需求的不断增长,尤其是在大规模、多摄像头的监控场景中,如何快速、准确地定位并追踪特定人员成为亟待解决的技术问题。传统的视频监控系统通常依赖于对所有摄像头的视频流进行实时解析,但在实际应用中,视频解析的计算量庞大,尤其是当监控设备数量众多时,实时解析所有视频流不仅会导致计算资源的浪费,还可能引起系统延迟,影响监控系统的实时性和响应效率。
此外,现有系统往往忽视了视频内容的语义信息,而仅依赖于视频流的简单处理,无法深入理解视频中的关键信息,导致对目标的定位和行为预测不够精确。因此,如何在海量视频数据中快速识别和定位特定目标,并通过分析视频中的语义信息,优化实时解析的计算负担,成为提升系统效率的关键。
为此,本申请设计了一种基于语义分析的视音频自主赋能方法,以及解决上述问题。
发明内容
本发明为了弥补现有技术中的不足,提供了一种基于语义分析的视音频自主赋能方法。
一种基于语义分析的视音频自主赋能方法,其特征在于,包括以下步骤:
S1,基于语义分析的视音频自主赋能系统获取多源数据并确定目标历史轨迹,并对目标的活动区域和活动模式进行初步分析;
S2,根据历史轨迹排序,确定优先查找区域;
S3,实时视频与音频数据分析;
S4,语义分析与行为预测;
S5,结果输出与指令执行。
进一步的,为了更好地实现本发明,所述S1具体为:S11,从多个数据源获取目标的相关信息,包括视频监控数据、音频数据、智能设备传感器数据、手机卡定位信息,这些信息将被用来构建目标的历史轨迹;S12,在此基础上,系统通过分析目标的行为历史,包括常去地点、频繁活动区域,来进行数据预处理,这些历史轨迹信息将被用于缩小实时视频解析的范围,避免不必要的全局视频分析,从而减轻计算压力,提高效率。
进一步的,为了更好地实现本发明,所述视频监控数据提供了实时的视觉图像,能够识别出目标的外观特征和运动轨迹;
所述音频数据可以通过声音分析确认目标的存在和其可能的行为,包括交谈、环境音;
所述智能设备传感器数据,包括门禁系统、车载GPS,可以进一步验证目标的位置和活动状态;
所述手机卡定位信息可帮助在大范围内进行精确的人员定位。
进一步的,为了更好地实现本发明,所述S2具体为:
S21,根据目标的历史轨迹数据,系统将对监控区域内的各个摄像头进行优先级排序;
S22,历史轨迹中的优先级由目标的活动频率、停留时间及访问的地点重要性来决定,例如,目标经常出入某个特定区域,包括商场、办公楼,该区域的摄像头将被赋予较高的优先级;反之,目标较少经过的区域,则优先级较低;
S23,系统根据这些优先级自动选择最适合的摄像头进行实时监控。
进一步的,为了更好地实现本发明,所述S3具体为:
S31,在优先调度的摄像头中,系统开始实时分析视频和音频数据;视频分析包括目标检测、跟踪和识别;
S32,通过计算机视觉技术,系统能够从实时视频流中检测出可能的目标,并跟踪其运动轨迹;此时,目标的面部识别、衣物特征、身体动作信息会被提取出来,以确保准确识别目标;
S33,与此同时,音频数据的分析也同时进行,通过声音识别技术,系统可以提取音频中的对话内容、环境音以及可能的指令信息,例如,如果音频中检测到与目标相关的对话内容或环境音,包括“快跑”、“救命”,系统会及时获取到这些关键信息并与视频数据结合,进一步确认目标的行为;
S34,在这一阶段,系统还会利用语音识别技术识别视频中的语音命令,判断是否存在与目标相关的指令信息;如果有指令内容,如“到达A地点”,则会进一步跟踪目标的位置变化。
进一步的,为了更好地实现本发明,所述S4具体为:
S41,通过语义分析技术,对视频和音频中的关键信息进行深入解析,语义分析能够理解视频和音频内容中的具体含义,比如通过分析目标的对话内容,如“我要去图书馆”,系统可以推测目标的下一步行动;
S42,系统还可以结合深度学习模型对目标的行为模式进行预测,从而更精确地判断目标可能的去向。
进一步的,为了更好地实现本发明,所述语义分析不仅仅局限于简单的命令识别,还包括对环境音、语气、情境因素的多维度解析;例如,若系统检测到目标在一个嘈杂环境中说出“我要离开”,系统能够识别该语句并结合周围的环境判断目标是否有离开该区域的意图,这一步骤的核心是使用自然语言处理和语义推理算法,基于目标的历史行为和当前语音/视频信息,进行下一步的行为预测。
进一步的,为了更好地实现本发明,所述S5具体为:通过实时的视频和音频数据分析,系统生成关于目标行为的预测结果,并将其传输到相关设备执行;例如,若目标被检测到接近某个危险区域或特定地点,系统可以自动触发警报或发出指令,通知安保人员进行进一步干预;如果目标的语音或行为分析显示其将要做出某个特定行为,如离开某区域或进入某建筑物,系统可向相关设备发出指令,自动启动监控或其他必要的响应措施。
本发明的有益效果是:
与现有技术相比,本发明具有以下优点:首先,通过整合音视频、智能设备和手机定位等多源信息获取目标的历史轨迹,并根据轨迹优先级排序调度摄像头,避免了对所有视频源的实时处理,大大减轻了计算负担,提高了效率。其次,采用音视频数据与语音识别结合的方式,增强了目标识别的准确性。音频中的对话内容和环境音信息为视频分析提供了更多上下文,提升了目标的定位和行为分析精度。第三,本发明引入语义分析技术,能够预测目标的下一步行为,结合视频与音频信息提供智能化的行为预测与决策支持。最后,本发明通过智能指令执行机制,能够在目标行为预测的基础上自动调度相关设备,提高了智慧城市指挥调度的响应速度和精确度。
附图说明
图1为本发明的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明的一种具体实施例,该实施例为一种基于语义分析的视音频自主赋能方法及系统。
现有技术中,常见的视频监控方案包括基于目标检测的实时视频分析和行为识别的监控系统。这些系统通过分析视频中的物体或人物进行目标跟踪,但在面对大量视频流时,往往无法有效减少计算负担,且存在响应延迟的问题。另外,部分系统采用语音识别与自然语言处理(NLP)技术,分析视频中的对话或语音指令,但这些方法通常是单独处理视频和音频数据,缺乏音视频融合分析的能力,导致在复杂场景下无法准确推测目标行为或优化资源调度。因此,现有技术在提高实时性、降低计算压力、精确预测目标行为等方面仍有一定的局限性。
本实施例在现有技术的基础上,通过结合视频与音频数据的语义分析,实现了更加智能、高效的目标定位与行为预测。与现有方案不同,本发明不仅利用视频中的目标检测和行为识别技术,还通过对视频和音频内容进行综合分析,深度理解视频中的语音信息和场景,从而在降低计算负担的同时,提高目标追踪和行为预测的准确性。
本实施例的具体的方法如下:
步骤1:获取多源数据并确定目标历史轨迹
首先,从多个数据源获取目标的相关信息,包括视频监控数据、音频数据、智能设备传感器数据、手机卡定位信息等。这些信息将被用来构建目标的历史轨迹。视频监控数据提供了实时的视觉图像,能够识别出目标的外观特征和运动轨迹;音频数据可以通过声音分析确认目标的存在和其可能的行为(例如,交谈、环境音等);智能设备数据(如门禁系统、车载GPS等)则可以进一步验证目标的位置和活动状态;手机卡定位信息则可帮助在大范围内进行精确的人员定位。通过这些信息的整合,系统可以生成目标的历史轨迹数据,并对目标的活动区域和活动模式进行初步分析。
在此基础上,系统能够通过分析目标的行为历史(例如常去地点、频繁活动区域等)来进行数据预处理。这些历史轨迹信息将被用于缩小实时视频解析的范围,避免不必要的全局视频分析,从而减轻计算压力,提高效率。
步骤2:根据历史轨迹排序,确定优先查找区域
根据目标的历史轨迹数据,系统将对监控区域内的各个摄像头进行优先级排序。历史轨迹中的优先级通常由目标的活动频率、停留时间及访问的地点重要性来决定。例如,目标经常出入某个特定区域(如商场、办公楼等),该区域的摄像头将被赋予较高的优先级;反之,目标较少经过的区域,则优先级较低。系统将根据这些优先级自动选择最适合的摄像头进行实时监控。
该步骤的目标是通过优先选择目标活动较频繁的区域来减轻实时视频分析的压力,同时提高目标查找的效率和精度。如果在某个高优先级摄像头区域找到了目标,系统会立即开始该区域的视频和音频数据解析,并进行目标行为预测。
步骤3:实时视频与音频数据分析
在优先调度的摄像头中,系统开始实时分析视频和音频数据。视频分析包括目标检测、跟踪和识别等步骤。通过计算机视觉技术,系统能够从实时视频流中检测出可能的目标,并跟踪其运动轨迹。此时,目标的面部识别、衣物特征、身体动作等信息会被提取出来,以确保准确识别目标。
与此同时,音频数据的分析也同时进行。通过声音识别技术,系统可以提取音频中的对话内容、环境音以及可能的指令信息。例如,如果音频中检测到与目标相关的对话内容或环境音(如“快跑”、“救命”等),系统会及时获取到这些关键信息并与视频数据结合,进一步确认目标的行为。
在这一阶段,系统还会利用语音识别技术识别视频中的语音命令,判断是否存在与目标相关的指令信息。如果有指令内容(如“到达A地点”),则会进一步跟踪目标的位置变化。
步骤4:语义分析与行为预测
通过语义分析技术,对视频和音频中的关键信息进行深入解析。语义分析能够理解视频和音频内容中的具体含义,比如通过分析目标的对话内容(如“我要去图书馆”),系统可以推测目标的下一步行动。系统还可以结合深度学习模型对目标的行为模式进行预测,从而更精确地判断目标可能的去向。
语义分析不仅仅局限于简单的命令识别,还包括对环境音、语气、情境等因素的多维度解析。例如,若系统检测到目标在一个嘈杂环境中说出“我要离开”,系统能够识别该语句并结合周围的环境判断目标是否有离开该区域的意图。这一步骤的核心是使用自然语言处理(NLP)和语义推理算法,基于目标的历史行为和当前语音/视频信息,进行下一步的行为预测。
步骤5:结果输出与指令执行
通过实时的视频和音频数据分析,系统生成关于目标行为的预测结果,并将其传输到相关设备执行。例如,若目标被检测到接近某个危险区域或特定地点,系统可以自动触发警报或发出指令,通知安保人员进行进一步干预。如果目标的语音或行为分析显示其将要做出某个特定行为(如离开某区域或进入某建筑物),系统可向相关设备发出指令,自动启动监控或其他必要的响应措施。
通过这一步骤,系统不仅能够实时监控目标的行为,还能根据预测结果做出迅速反应。这种实时的响应能力是智能城市指挥调度系统的重要组成部分,能够有效提高城市管理的效率和应对紧急情况的能力。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,本领域普通技术人员对本发明的技术方案所做的其他修改或者等同替换,只要不脱离本发明 技术方案的精神和范围,均应涵盖在本发明的权利要求范围当中。
Claims (8)
1.一种基于语义分析的视音频自主赋能方法,其特征在于,包括以下步骤:
S1,基于语义分析的视音频自主赋能系统获取多源数据并确定目标历史轨迹,并对目标的活动区域和活动模式进行初步分析;
S2,根据历史轨迹排序,确定优先查找区域;
S3,实时视频与音频数据分析;
S4,语义分析与行为预测;
S5,结果输出与指令执行。
2.根据权利要求1所述的基于语义分析的视音频自主赋能方法,其特征在于:
所述S1具体为:
S11,从多个数据源获取目标的相关信息,包括视频监控数据、音频数据、智能设备传感器数据、手机卡定位信息,这些信息将被用来构建目标的历史轨迹;
S12,在此基础上,系统通过分析目标的行为历史,包括常去地点、频繁活动区域,来进行数据预处理,这些历史轨迹信息将被用于缩小实时视频解析的范围,避免不必要的全局视频分析,从而减轻计算压力,提高效率。
3.根据权利要求2所述的基于语义分析的视音频自主赋能方法,其特征在于:
所述视频监控数据提供了实时的视觉图像,能够识别出目标的外观特征和运动轨迹;
所述音频数据可以通过声音分析确认目标的存在和其可能的行为,包括交谈、环境音;
所述智能设备传感器数据,包括门禁系统、车载GPS,可以进一步验证目标的位置和活动状态;
所述手机卡定位信息可帮助在大范围内进行精确的人员定位。
4.根据权利要求1所述的基于语义分析的视音频自主赋能方法,其特征在于:
所述S2具体为:
S21,根据目标的历史轨迹数据,系统将对监控区域内的各个摄像头进行优先级排序;
S22,历史轨迹中的优先级由目标的活动频率、停留时间及访问的地点重要性来决定,例如,目标经常出入某个特定区域,包括商场、办公楼,该区域的摄像头将被赋予较高的优先级;反之,目标较少经过的区域,则优先级较低;
S23,系统根据这些优先级自动选择最适合的摄像头进行实时监控。
5.根据权利要求1所述的基于语义分析的视音频自主赋能方法,其特征在于:
所述S3具体为:
S31,在优先调度的摄像头中,系统开始实时分析视频和音频数据;视频分析包括目标检测、跟踪和识别;
S32,通过计算机视觉技术,系统能够从实时视频流中检测出可能的目标,并跟踪其运动轨迹;此时,目标的面部识别、衣物特征、身体动作信息会被提取出来,以确保准确识别目标;
S33,与此同时,音频数据的分析也同时进行,通过声音识别技术,系统可以提取音频中的对话内容、环境音以及可能的指令信息,例如,如果音频中检测到与目标相关的对话内容或环境音,包括“快跑”、“救命”,系统会及时获取到这些关键信息并与视频数据结合,进一步确认目标的行为;
S34,在这一阶段,系统还会利用语音识别技术识别视频中的语音命令,判断是否存在与目标相关的指令信息;如果有指令内容,如“到达A地点”,则会进一步跟踪目标的位置变化。
6.根据权利要求1所述的基于语义分析的视音频自主赋能方法,其特征在于:
所述S4具体为:
S41,通过语义分析技术,对视频和音频中的关键信息进行深入解析,语义分析能够理解视频和音频内容中的具体含义,比如通过分析目标的对话内容,如“我要去图书馆”,系统可以推测目标的下一步行动;
S42,系统还可以结合深度学习模型对目标的行为模式进行预测,从而更精确地判断目标可能的去向。
7.根据权利要求6所述的基于语义分析的视音频自主赋能方法,其特征在于:
所述语义分析不仅仅局限于简单的命令识别,还包括对环境音、语气、情境因素的多维度解析;例如,若系统检测到目标在一个嘈杂环境中说出“我要离开”,系统能够识别该语句并结合周围的环境判断目标是否有离开该区域的意图,这一步骤的核心是使用自然语言处理和语义推理算法,基于目标的历史行为和当前语音/视频信息,进行下一步的行为预测。
8.根据权利要求1所述的基于语义分析的视音频自主赋能方法,其特征在于:
所述S5具体为:通过实时的视频和音频数据分析,系统生成关于目标行为的预测结果,并将其传输到相关设备执行;例如,若目标被检测到接近某个危险区域或特定地点,系统可以自动触发警报或发出指令,通知安保人员进行进一步干预;如果目标的语音或行为分析显示其将要做出某个特定行为,如离开某区域或进入某建筑物,系统可向相关设备发出指令,自动启动监控或其他必要的响应措施。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202411681239.XA CN119450008A (zh) | 2024-11-22 | 2024-11-22 | 基于语义分析的视音频自主赋能方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202411681239.XA CN119450008A (zh) | 2024-11-22 | 2024-11-22 | 基于语义分析的视音频自主赋能方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN119450008A true CN119450008A (zh) | 2025-02-14 |
Family
ID=94514069
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202411681239.XA Pending CN119450008A (zh) | 2024-11-22 | 2024-11-22 | 基于语义分析的视音频自主赋能方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN119450008A (zh) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106408164A (zh) * | 2016-08-30 | 2017-02-15 | 长威信息科技发展股份有限公司 | 一种警力资源调度方法及系统 |
| CN113254639A (zh) * | 2021-05-24 | 2021-08-13 | 珠海大横琴科技发展有限公司 | 一种监控报警定位跟踪方法、装置及电子设备 |
| CN113674768A (zh) * | 2021-04-02 | 2021-11-19 | 深圳市微纳感知计算技术有限公司 | 基于声学的呼救检测方法、装置、设备及存储介质 |
| WO2023236514A1 (zh) * | 2022-06-06 | 2023-12-14 | 苏州元脑智能科技有限公司 | 一种跨摄像头的多目标追踪方法、装置、设备及介质 |
| CN117579930A (zh) * | 2023-11-17 | 2024-02-20 | 北京航天长峰科技工业集团有限公司 | 一种基于目标光电联动的视频标记系统及方法 |
| CN117975693A (zh) * | 2024-01-29 | 2024-05-03 | 成都元智盈创科技有限公司 | 一种隐私保护区域内的防欺凌系统及方法 |
-
2024
- 2024-11-22 CN CN202411681239.XA patent/CN119450008A/zh active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106408164A (zh) * | 2016-08-30 | 2017-02-15 | 长威信息科技发展股份有限公司 | 一种警力资源调度方法及系统 |
| CN113674768A (zh) * | 2021-04-02 | 2021-11-19 | 深圳市微纳感知计算技术有限公司 | 基于声学的呼救检测方法、装置、设备及存储介质 |
| CN113254639A (zh) * | 2021-05-24 | 2021-08-13 | 珠海大横琴科技发展有限公司 | 一种监控报警定位跟踪方法、装置及电子设备 |
| WO2023236514A1 (zh) * | 2022-06-06 | 2023-12-14 | 苏州元脑智能科技有限公司 | 一种跨摄像头的多目标追踪方法、装置、设备及介质 |
| CN117579930A (zh) * | 2023-11-17 | 2024-02-20 | 北京航天长峰科技工业集团有限公司 | 一种基于目标光电联动的视频标记系统及方法 |
| CN117975693A (zh) * | 2024-01-29 | 2024-05-03 | 成都元智盈创科技有限公司 | 一种隐私保护区域内的防欺凌系统及方法 |
Non-Patent Citations (1)
| Title |
|---|
| 毛嘉莉等: "轨迹大数据异常检测:研究进展及系统框架", 软件学报, vol. 28, no. 01, 27 October 2016 (2016-10-27), pages 17 - 31 * |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108573701B (zh) | 基于唇部检测的查询端点化 | |
| US12518754B1 (en) | State detection and responses for electronic devices | |
| CN107336243B (zh) | 基于智能移动终端的机器人控制系统及控制方法 | |
| US11143156B2 (en) | Artificial intelligence apparatus for controlling auto stop system based on traffic information and method for the same | |
| EP4310838B1 (en) | Speech wakeup method and apparatus, and storage medium and system | |
| US10614693B2 (en) | Dangerous situation notification apparatus and method | |
| CN110291489A (zh) | 计算上高效的人类标识智能助理计算机 | |
| US11421610B2 (en) | Artificial intelligence apparatus for controlling auto stop system and method therefor | |
| CN110750152B (zh) | 一种基于唇部动作的人机交互方法和系统 | |
| CN114879891B (zh) | 一种自监督多目标跟踪下的多模态人机互动方法 | |
| CN118262114B (zh) | 一种多模态实时交互决策的方法及系统 | |
| WO2019148491A1 (zh) | 人机交互方法、装置、机器人及计算机可读存储介质 | |
| US11322134B2 (en) | Artificial intelligence device and operating method thereof | |
| JP2017062349A (ja) | 検知装置及びその制御方法、コンピュータプログラム | |
| Arslan et al. | Sound based alarming based video surveillance system design | |
| CN117995187A (zh) | 一种基于深度学习的客服机器人与对话处理系统及方法 | |
| Arslan et al. | Performance of deep neural networks in audio surveillance | |
| US20190346929A1 (en) | Attention Levels in a Gesture Control System | |
| CN114241570A (zh) | 一种基于视觉的定位拍摄方法及系统 | |
| US11743588B1 (en) | Object selection in computer vision | |
| CN114171015A (zh) | 基于语音分类的场景识别方法、系统及存储介质 | |
| US11460927B2 (en) | Auto-framing through speech and video localizations | |
| US12374326B1 (en) | Natural language generation | |
| Neeraja et al. | Deep learning based lip movement technique for mute | |
| KR101933822B1 (ko) | 얼굴인식 기반 지능형 스피커, 이를 이용한 능동적인 대화 제공 방법 및 이를 수행하기 위한 기록매체 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination |