[go: up one dir, main page]

JP2018019263A - 音声モニタリングシステム及び音声モニタリング方法 - Google Patents

音声モニタリングシステム及び音声モニタリング方法 Download PDF

Info

Publication number
JP2018019263A
JP2018019263A JP2016148470A JP2016148470A JP2018019263A JP 2018019263 A JP2018019263 A JP 2018019263A JP 2016148470 A JP2016148470 A JP 2016148470A JP 2016148470 A JP2016148470 A JP 2016148470A JP 2018019263 A JP2018019263 A JP 2018019263A
Authority
JP
Japan
Prior art keywords
sound
monitoring system
time
unit
sound parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016148470A
Other languages
English (en)
Other versions
JP2018019263A5 (ja
JP6739041B2 (ja
Inventor
亮太 藤井
Ryota Fujii
亮太 藤井
宏之 松本
Hiroyuki Matsumoto
宏之 松本
林 裕昭
Hiroaki Hayashi
裕昭 林
林 和典
Kazunori Hayashi
和典 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016148470A priority Critical patent/JP6739041B2/ja
Priority to US16/320,338 priority patent/US10930295B2/en
Priority to PCT/JP2017/020900 priority patent/WO2018020841A1/ja
Publication of JP2018019263A publication Critical patent/JP2018019263A/ja
Publication of JP2018019263A5 publication Critical patent/JP2018019263A5/ja
Application granted granted Critical
Publication of JP6739041B2 publication Critical patent/JP6739041B2/ja
Priority to US17/175,220 priority patent/US11631419B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/14Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Otolaryngology (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

【課題】店舗等のモニタリング対象のエリアにおいて、指定された過去の一定期間において、人物がどのくらいの時間、どの程度の音声レベルで来店客に対して接客していたか等を分析し、分析結果を視覚的に示し、モニタリング分析精度を向上する。【解決手段】音声モニタリングシステムにおいて、記録装置70は、映像及び撮像時間と音声とを記録する。音パラメータ算出部71、441は、音声を基に、撮像時刻におけるモニタリングエリアの音の大きさを特定する音パラメータを画素毎に、かつ、一定時間毎に算出する。音パラメータ保存部72は、音パラメータを保存する。音パラメータ表示制御部442は、音パラメータに応じて、音声ヒートマップを、モニタリングエリアの撮像画像に重畳してモニタ55に表示する。このとき、音パラメータ表示制御部442は、時間範囲の指定に応じて、音の大きさの時間累計値に基づく音声ヒートマップを表示する。【選択図】図2

Description

本発明は、モニタリング対象のエリア内の人物の動線を分析するための音声モニタリングシステム及び音声モニタリング方法に関する。
従来、モニタリング対象のエリア(例えば店舗内)の人物(例えば店員、来店客)の動線を分析する技術として、画像解析による人物検知及び人物追跡の技術を用いた動線の可視化技術が知られている。この可視化技術では、人物の移動箇所を分析することは可能であるが、例えば接客が頻繁に行われる飲食店やコンビニエンスストア等の店舗内のどの場所でどの程度の時間、店員及び来店客の会話が行われているか、もしくは来店客が単に立ち止まっているだけであるかを区別することはできない。
上述した動線の可視化技術に関連する先行技術として、例えば特許文献1に示す画像処理装置が提案されている。この画像処理装置は、カメラにより撮影された画像を処理して会議出席者の顔を検出し、複数のマイクによって音声の到来方向を検出し、ずれ時間情報に基づいて音声を収音する方向を変更し、収音された音声レベルを算出する。また、画像処理装置は、顔検出情報、音声到来方向情報、音声レベル情報を基に、会議室画像の会議出席者の発言者の頭上に、音声レベルを示す画像を表示する。
特開2012−147420号公報
しかしながら、特許文献1の構成では、発言者によって現在発言されている音声の音声レベルの瞬時値が算出され、その算出結果(音声レベルの瞬時値)を示す画像が会議出席者の発言者の頭上に表示されるだけであった。つまり、特許文献1の構成では、過去に発言された一定期間の音声の音声レベルを算出してその結果を可視化する等の音声分析はできなかった。従って、例えば店舗内の店員の行動等をモニタリングしている人物(例えば監視者)は、店舗内で店員が過去のある期間に接客していた場合に、どれくらいの時間、どの程度の音声レベルで店員の会話が継続しているのかを視覚的に把握することはできなかった。
本発明は、上述した従来の状況に鑑みて案出され、店舗等のモニタリング対象のエリアにおいて、指定された過去の一定期間において、人物がどのくらいの時間、どの程度の音声レベルで来店客に対して接客していたか等を分析し、分析結果を視覚的に示し、モニタリング分析精度を向上する音声モニタリングシステム及び音声モニタリング方法を提供することを目的とする。
本発明は、モニタリング対象のエリアを撮像するカメラと、前記エリアの音を収音するマイクアレイと、前記カメラにより撮像された撮像画像及び撮像時刻と前記マイクアレイにより収音された音とを対応付けて記録するレコーダと、前記カメラの撮像中に前記マイクアレイにより収音された音を基に、撮像時刻における前記エリアの音の大きさを示す音パラメータを、前記撮像画像を構成する画素の所定単位毎に繰り返して算出する音パラメータ算出部と、前記音パラメータ算出部により算出された前記音パラメータを、前記撮像時刻における撮像画像上の位置情報と対応付けて保存する音パラメータ保存部と、前記音パラメータに基づく音源視覚画像を、前記撮像画像を構成する画素の所定単位毎に重畳してモニタに表示する音パラメータ表示制御部と、を備え、前記音パラメータ表示制御部は、時間範囲の指定に応じて、前記音パラメータ保存部に保存された前記音パラメータの前記時間範囲における累計値に基づく前記音源視覚画像を、前記撮像画像を構成する画素の所定単位毎に重畳して前記モニタに表示する、音声モニタリングシステムを提供する。
また、本発明は、カメラと、マイクアレイと、レコーダと、再生制御装置とを含む音声モニタリングシステムにおける音声モニタリング方法であって、前記カメラは、モニタリング対象のエリアを撮像し、前記マイクアレイは、前記エリアの音を収音し、前記レコーダは、前記カメラにより撮像された撮像画像及び撮像時刻と前記マイクアレイにより収音された音とを対応付けて記録し、前記再生制御装置は、前記カメラの撮像中に前記マイクアレイにより収音された音を基に、撮像時刻における前記エリアの音の大きさを示す音パラメータを、前記撮像画像を構成する画素の所定単位毎に繰り返して算出し、前記再生制御装置は、算出された前記音パラメータを、前記撮像時刻における撮像画像上の位置情報を対応付けて前記レコーダに保存し、前記再生制御装置は、前記音パラメータに基づく音源視覚画像を、前記撮像画像を構成する画素の所定単位毎に重畳してモニタすることを特徴とし、前記再生制御装置は、時間範囲の指定に応じて、前記レコーダに保存された前記音パラメータの前記時間範囲における累計値に基づく前記音源視覚画像を、前記撮像画像を構成する画素の所定単位毎に重畳して前記モニタに表示する、音声モニタリング方法を提供する。
本発明によれば、店舗等のモニタリング対象のエリアにおいて、指定された過去の一定期間において、人物がどのくらいの時間、どの程度の音声レベルで来店客に対して接客していたか等を分析し、分析結果を視覚的に示し、モニタリング分析精度を向上することができる。
第1の実施形態の音声モニタリングシステムの店舗への設置例を示す図 第1の実施形態の音声モニタリングシステムのシステム構成の一例を詳細に示すブロック図 マイクアレイの内部構成の一例を詳細に示すブロック図 全方位カメラの内部構成の一例を詳細に示すブロック図 モニタに表示されるGUIの一例を示す図 第1の実施形態のレコーダにおける音パラメータの算出、保存の各動作手順の一例を詳細に説明するフローチャート 音パラメータの算出例を説明する図 第1の実施形態の音パラメータが格納されるファイルの構造例を示す図 第1の実施形態の音パラメータの表示の動作手順の一例を詳細に説明するフローチャート モニタに表示される時刻t2におけるGUIの一例を示す図 第3の実施形態のRGB値への変換動作手順の一例を詳細に説明するフローチャート 第5の実施形態のモニタに表示されるGUIの一例を示す図 第6の実施形態の60秒単位の音パラメータが格納されるファイルの構造例を示す図 第8の実施形態の音パラメータの表示の動作手順の一例を詳細に説明するフローチャート 第9の実施形態のモニタに表示されるGUIの一例を示す図 第10の実施形態のモニタリングエリアにおいて検知された音の大きい領域の一例を示す図 (A)指定された時間範囲(10:00〜10:30)で指定エリアFRの座標(Ux,Uy)における音声検知の時間変化(音声の有無)を示すグラフ、(B)(A)において検知された音声検知期間における音声の再生リストの一例を示す図 第10の実施形態の音声の強調処理、再生の各動作手順の一例を詳細に説明するフローチャート 第11の実施形態の音声の強調処理、再生の各動作手順の一例を詳細に説明するフローチャート モニタリングエリアの中からユーザにより選択された指定エリアの座標(Ux,Uy)の一例を示す図 指定エリアの座標(Ux,Uy)における音声検知の時間変化例を示すグラフ 第12の実施形態の音声の強調処理、再生の各動作手順の一例を詳細に説明するフローチャート 第13の実施形態の音パラメータの表示の動作手順の一例を詳細に説明するフローチャート 第14の実施形態の音声モニタリングシステムのシステム構成の一例を詳細に示すブロック図 第14の実施形態のモニタに表示されるGUIの一部分の一例を示す図 ユーザ操作により指定された時間範囲の表示開始時刻における撮像画像に、音源視覚画像(音声ヒートマップMP)が重畳された表示例を示す図 ユーザ操作により指定された検索時刻における撮像画像に、音源視覚画像(音声ヒートマップMP)と複数人の発話内容とが重畳された表示例を示す図 第14の実施形態の音パラメータの表示の動作手順の一例を詳細に説明するフローチャート
以下、適宜図面を参照しながら、本発明に係る音声モニタリングシステム及び音声モニタリング方法を具体的に開示した各実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(第1の実施形態)
図1は、第1の実施形態の音声モニタリングシステム5の店舗への設置例を示す図である。音声モニタリングシステム5は、例えば飲食店やコンビニエンスストア等の店舗200に設置され、店長等の監視者によりモニタリングされる対象(例えば店員)の接客状況をモニタリングする。なお、以下の説明では、音声モニタリングシステム5は、店舗内に設置されるとして説明するが、設置先は店舗に限定されず、例えば工場、図書館等の公共施設、オフィス内に設置されてよい。店舗200には、多くの商品が陳列された商品棚201、カウンタ202等が設置されている。カウンタ202は、接客の一例として、来店客が購入した商品の精算等を行うために使用され、例えばレジカウンターである。商品の清算等を行う際、店員p1と来店客p2は、通常、カウンタ202を挟んで対面し、会話する。
音声モニタリングシステム5は、マイクアレイ・カメラ装置10と、閲覧装置30と、記録装置70とを含む構成である。マイクアレイ・カメラ装置10は、マイクアレイMAと全方位カメラCAとが同軸方向に組み合わされて一体化して構成され、カウンタ202の上方に固定して取り付けられている。例えば、マイクアレイ・カメラ装置10は、店舗200の天井に取り付けられる。全方位カメラCAは、カウンタ202を含むモニタリングエリアSAを撮像する。モニタリングエリアは、音声モニタリングシステム5により店員等の接客状況がモニタリングされる対象のエリアであり、以下同様とする。マイクアレイMAは、モニタリングエリアSAを覆う領域から発せられる音を収音する。
閲覧装置30は、店舗200のバックヤード200zに配置され、全方位カメラCAにより撮像された画像(撮像画像)を閲覧可能に表示し、更に、マイクアレイMAにより収音された音をスピーカ50(図2参照)から出力する。
レコーダとしての記録装置70は、閲覧装置30と同様、店舗200のバックヤード200zに配置され、全方位カメラCAにより撮像された画像(撮像画像)及び撮像時刻と、マイクアレイMAにより収音された音及び収音時刻とを対応付けて記録する。また、記録装置70は、一定間隔毎に算出された音パラメータ(後述参照)を繰り返し保存する。
図2は、第1の実施形態の音声モニタリングシステム5のシステム構成の一例を詳細に示すブロック図である。マイクアレイ・カメラ装置10、閲覧装置30、及び記録装置70は、ネットワークNWを介して、相互にデータ通信可能に接続される。ネットワークNWは、有線ネットワーク(例えばイントラネット、インターネット)でもよいし、無線ネットワーク(例えば無線LAN(Local Area Network))でもよい。
記録装置70は、各種のデータを記録するものであり、レコーダR1とレコーダR2とを含む。レコーダR1は、マイクアレイMAにより収音された音のデータ及び収音時刻と、全方位カメラCAにより撮像された撮像画像のデータ及び撮像時刻とを対応付けて記録する。収音時刻は、マイクアレイMAから送信された音のデータに含まれる時刻情報の時刻でもよいし、マイクアレイMAから送信された音のデータがレコーダR1により受信された時の時刻でもよい。同様に、撮像時刻は、全方位カメラCAから送信された撮像画像のデータに含まれる時刻情報の時刻でもよいし、全方位カメラCAから送信された撮像画像のデータがレコーダR1により受信された時の時刻でもよい。
レコーダR2は、音パラメータ算出部71及び音パラメータ保存部72を有する。
音パラメータ算出部71は、レコーダR1に記録された音データ、あるいはマイクアレイMAにより収音された音データを基に、音パラメータを算出する。以下の説明において、音パラメータは、マイクアレイMAにより収音された音の大きさを示すパラメータであり、例えば音圧である。なお、音パラメータは、音圧に限らず、音量レベルでもよいし、単に音の有無、あるいは音圧と音声検知時間とをかけた量等であってもよい。音パラメータ算出部71の音パラメータの算出処理の詳細は、後述する音パラメータ算出部441の音パラメータの算出処理と同一であるため、ここでは説明を省略する。
音パラメータ保存部72は、音パラメータ算出部71により算出された音パラメータを、算出時の時刻情報と対応付けて保存する。なお図2では、記録装置70は、レコーダR1とレコーダR2とが別装置として構成されているが、レコーダR1とレコーダR2とが一体化された構成でもよい。また、図2に示すように、レコーダR2は、レコーダR1に記録されている記録データ(つまり、画像データ及び撮像時刻のデータ、並びに、音データ及び収音時刻のデータ)を更に記録してもよい。
閲覧装置30は、再生制御装置40と、スピーカ50と、モニタ55と、操作部58とを含む構成である。再生制御装置40は、全方位カメラCAにより撮像された撮像画像のデータをモニタ55に表示したり、マイクアレイMAにより収音された音のデータをスピーカ50から再生したりする。再生制御装置40は、再生制御部41、指向音データ生成部42、メモリ43、信号処理部44、指定部45及び判断部46を有する。
再生制御部41は、例えば監視者(以下、「ユーザ」ともいう)により一定の時間範囲の指定操作があった場合に、レコーダR1に記録された音データ及び画像データから該当する時間範囲の音データ及び画像データを取得し、音データをスピーカ50により音声出力させ、更に、画像データをモニタ55に表示させる。
また、再生制御部41は、監視者により一定の時間範囲の指定操作並びにモニタ55に表示された撮像画像上に対する位置の指定操作があると、後述する指向音データ生成部42に対し、指定された時間範囲の音データの強調処理を指示する。再生制御部41は、指向音データ生成部42から出力された強調処理済みの音データをスピーカ50により音声出力させて再生する。
指向音強調部としての指向音データ生成部42は、例えば再生制御部41の指示に応じて、レコーダR1に記録されている音データを用いて、マイクアレイMAから、例えば店長等の監視者の操作により指定された撮像画像上の位置に対応する音源位置に向かう方向の音を指向方向として強調処理する。具体的には、指向音データ生成部42は、指向方向に対して、音声の指向性を形成することで、指向方向の音声が強調処理された音のデータを生成する。
メモリ43は、例えばRAM(Random Access Memory)又はHDD(Hard Disk Drive)を用いて構成され、音パラメータ算出部441により算出された音パラメータや一定期間分の音パラメータの時間累計値F等の各種情報(後述参照)を記憶する。また、メモリ43は、後述するGUI100(図5参照)に表示される、録画日時、表示時間単位、指定エリアの座標、再生リスト等の各種情報を記憶する。
信号処理部44は、全方位カメラCAから配信された撮像画像(つまり、現在のライブ映像を構成する画像)又はレコーダR1に記録された撮像画像(つまり、過去の録画映像を構成する画像)に重畳される音源視覚画像(後述参照)を生成する。信号処理部44は、音パラメータ算出部441、音パラメータ表示制御部442、及び色情報変換部443を少なくとも有する。
音パラメータ算出部441は、全方位カメラCAにより撮像された撮像画像の画像データとマイクアレイMAにより収音された音の音データとを基に、画像データを構成する一つ一つの画素毎に音パラメータ(例えば音圧)を算出する。この音圧の算出処理は公知技術であり、その詳細については割愛する。本実施形態を含む各実施形態では、音パラメータ算出部441は、例えば公知技術を用いて音パラメータを算出する際、マイクアレイMAから、算出対象となる画素に対応するモニタリングエリアSAの位置に向かう方向に指向性(後述参照)を形成してその方向の音を強調処理した上で、音の有無を判断して音圧を算出する。また、音パラメータ算出部441は、画像データを構成する一つ一つの画素毎に、該当する画素の位置に音圧の算出値を割り当てた音圧マップを生成する。なお、音パラメータ算出部441は、画素単位で算出した音圧値を該当する画素の位置に割り当てた音圧マップを生成すると説明したが、一つ一つの画素毎に音圧を算出せず、所定数(例えば2×2=4個、3×3=9個)の画素からなる画素ブロック単位で音圧値の平均値を算出し、該当する所定数の画素に対応する音圧値の平均値を割り当てることで、音圧マップを生成してもよい。
音パラメータ表示制御部442は、全方位カメラCAから配信された撮像画像(つまり、現在のライブ映像を構成する画像)又はレコーダR1に記録された撮像画像(つまり、過去の録画映像を構成する画像)に音源視覚画像を重畳するための表示制御を行う。音パラメータ表示制御部442の動作の詳細については後述する。
色情報変換部443は、音パラメータ算出部441により算出された音パラメータを基に、RGB値をそれぞれ計算し、RGB値に対応する音源視覚画像を生成する。色情報変換部443による色情報(RGB値)に対応する音源視覚画像の生成処理については後述する。
指定部45は、領域指定部451及び表示対象日時指定部452を有する。領域指定部451は、ユーザ操作により、ユーザが音声を聞きたい領域である指定エリアFR(図5参照)を指定する。表示対象日時指定部452は、ユーザ操作により、ユーザが音声を聞きたい日時を指定する。ユーザが聞きたい日時は、GUI100(図5参照)上の録画日時選択部104、表示時間単位設定部105及び表示対象範囲設定部106を用いて、ユーザが時間軸上の音声区間(時間範囲)を指示することで指定される。
判断部46は、ユーザ操作により表示対象範囲設定部106に指定された時間範囲が、レコーダR2に既に記録された音声パラメータの第1間隔としての保存間隔AA1より小さいか否かを判断する。なお、判断部46は、後述する第8の実施形態において使用され、判断部46の動作の詳細は後述する。
スピーカ50は、マイクアレイMAによりリアルタイムに収音される音の音データ、あるいはレコーダR1に記録された音データを音声出力する。
モニタ55は、グラフィカルユーザインターフェース(GUI)100(図5参照)を表示する。GUI100の詳細については後述する。
操作部58は、GUI100に対するユーザからの操作指示を受け付けるものであり、マウス、キーボード等の入力デバイスの他、モニタ55と一体化されたタッチパネルであってもよい。ユーザからの操作指示としては、映像音声ファイルの指定、指定エリアの位置の指定、表示する音の時間範囲の指定、再生開始の指示等が挙げられる。
図3は、マイクアレイMAの内部構成の一例を詳細に示すブロック図である。マイクアレイMAは、複数のマイクロホンM1〜Mn(例えばn=8、16又は32)、複数のマイクロホンM1〜Mnの出力信号をそれぞれ増幅する複数の増幅器(アンプ)PA1〜PAn、各増幅器PA1〜PAnから出力されるアナログ信号をそれぞれデジタル信号に変換する複数のA/D変換器A1〜An、圧縮処理部25及び送信部26を含む。
圧縮処理部25は、A/D変換器A1〜Anから出力されるデジタル音声信号を基に、音声データのパケットを生成する。送信部26は、圧縮処理部25で生成された音声データのパケットを、ネットワークNWを介して閲覧装置30又は記録装置70に送信する。
このように、マイクアレイMAは、マイクロホンM1〜Mnの出力信号を増幅器PA1〜PAnで増幅し、A/D変換器A1〜Anでデジタル音声信号に変換した後、圧縮処理部25で音声データのパケットを生成する。マイクアレイMAは、この音声データのパケットを、ネットワークNWを介して閲覧装置30又は記録装置70に送信する。
図4は、全方位カメラCAの内部構成の一例を詳細に示すブロック図である。全方位カメラCAは、CPU61、通信部62、電源管理部64、イメージセンサ65、メモリ66及びネットワークコネクタ67を有する。
CPU61は、全方位カメラCAの各部を統括的に制御する。イメージセンサ65は、モニタリングエリアSAを撮像して画像データを取得するものであり、CMOS(相補性金属酸化膜半導体)センサで構成される。なお、CMOSセンサの代わりに、CCD(電荷結合素子)センサが用いられてもよい。
メモリ66は、動作プログラムや設定値のデータが格納されたROM66z、画像データやワークデータを記憶するRAM66y、及び全方位カメラCAに挿抜自在に接続され、各種データが記憶されるメモリカード66xを有する。
通信部62は、ネットワークコネクタ67を介して接続されるネットワークNWとのデータ通信を制御するネットワークインタフェース(I/F)である。
電源管理部64は、全方位カメラCAの各部に直流電源を供給し、また、ネットワークコネクタ67を介してネットワークNWに接続される機器に直流電源を供給する。ネットワークコネクタ67は、画像データ等の通信データを伝送し、また、ネットワークケーブルを介して給電可能なコネクタである。
なお、本実施形態では、全方位カメラが用いられたが、全方位カメラの代わりに、パン・チルト・ズーム可能なPTZカメラや、画角が固定された定点カメラが用いられてもよい。
図5は、モニタ55に表示されるGUI100の一例を示す図である。GUI100は、モニタ55に表示されるユーザインターフェースであり、具体的には、表示画面101、動作モード設定部102、ライブモード設定部103、録画日時選択部104、表示時間単位設定部105、表示対象範囲設定部106、設定情報表示部107、及び再生リスト108を含む。このGUI100は、例えば音パラメータ表示制御部442により生成されてモニタ55に表示され、以下の各実施形態においても同様である。
表示画面101には、全方位カメラCAにより撮像された撮像画像GZ(つまり、魚眼画像)と、この撮像画像上に重畳される音源視覚画像(音声ヒートマップMP)が合成画像として表示される。音源視覚画像(音声ヒートマップMP)は、マイクアレイMAにより収音された音に基づいて信号処理部44により生成された音声ヒートマップである。つまり、音声ヒートマップは、撮像画像GZの中で、どの位置に音源が存在しているかを視覚的に示すマップデータである。なお、音声ヒートマップは、撮像画像GZの全域を対象とする全体的なマップデータでもよいし、撮像画像GZの中で音源が存在している位置のみを対象とする部分的なマップデータのどちらでも構わない。図5に示す表示画面101には、ユーザ操作により指定された指定エリアFRが、音パラメータが大きい場所(言い換えると、音の発生した場所であってつまり音源)として、青色の矩形枠で表示されている。また、指定エリアFRの音パラメータよりも音パラメータの大きい領域mpz1,mpz2は、別の音源位置を示すとして、赤色の略円形で表示されている。
動作モード設定部102は、ユーザにより選択可能なラジオボタンを有する。動作モード設定部102は、例えば表示画面101に表示される合成画像(上述参照)をリアルタイムに表示するためのライブモードと、記録装置70に記録された過去の画像データ及び音データを用いて算出された音パラメータに基づいて過去の指定日時に対応する合成画像(上述参照)を表示する日時指定モードとのいずれかを選択可能である。いずれかのモードが選択されると、選択中のモードに対応するラジオボタンの色が変わる。図5では、日時指定モードが選択されている。以下の説明では、日時指定モードが選択されたとして説明する。
ライブモード設定部103は、ユーザにより選択可能なプルダウンメニューを有し、選択された可視化対象時間を設定する。図5では、可視化対象時間として、例えば「過去1時間」が設定されている。これは、上述した合成画像を生成するために、例えば現在から過去1時間前までの音データ及び画像データを用いることを指定するものである。
録画日時選択部104は、ユーザにより選択可能なプルダウンメニューを有し、選択された録画日時を設定する。図5では、録画の日時情報として、例えば「2016/5/1」の日付が設定されている。このプルダウンメニューには、日付の他、時間帯も設定可能な項目として含まれる。
表示時間単位設定部105は、ユーザにより選択可能なプルダウンメニューを有し、選択された表示時間単位を設定する。図5では、例えば「1時間」が設定されている。
表示対象範囲設定部106は、上述した合成画像の表示対象となる時間帯(時間範囲)を指定するスライドバーを有し、ユーザがスライダ106zを時間軸上に移動させることで表示対象の時間帯(時間範囲)を設定する。スライダ106zは例えば矩形の形状を有する。スライダ106zを示す矩形の左辺は上述した時間帯(時間範囲)の表示開始時刻t0を示し、矩形の長さは表示時間単位τ(ここでは1時間)を示す。スライダ106zを示す矩形の右辺は、表示終了時刻(t0+τ)を示す。図5では、例えば「9:00〜17:00」の時間軸上で表示対象の時間帯(つまり、表示時間単位τの開始時刻及び終了時刻)が変更可能である。表示対象範囲設定部106のスライドバーが「9:00〜17:00」の時間帯で示されていることは、あくまで一例であって、他の例として一日を示す「0:00〜23:59」でもよい。
設定情報表示部107は、ユーザ操作により指定された指定エリアFR、及び指定エリアFRの累計発話時間を表示する。指定エリアFRは、その中心座標(X,Y)で表される、矩形領域である。図5では、例えば指定エリアFRの中心座標(X,Y)は、(100,200)である。また、累計発話時間は、例えば4分20秒である。
再生リスト108は、ユーザ操作により指定された時間範囲の中で、指定エリアFRにおいて音声が検知された音声検知期間の開始時刻を時系列に表示する。再生リスト108中のいずれかの音声検知期間の開始時刻を選択すると、閲覧装置30は、その開始時刻からの音声をスピーカ50から音声出力することで再生可能である。図5では、例えば「10:05:05」、「10:05:30」、「10:06:10」を開始時刻とする音声検知期間がラベル順に表示されている。また、現在再生中の「10:05:05」における音声検知期間には、例えば音パラメータ表示制御部442によりマーク108zが示されている。
上述した構成を有する音声モニタリングシステム5の動作を説明する。
始めに、記録装置70における、全方位カメラCAにより撮像された画像の記録動作(つまり録画)、マイクアレイMAにより収音された音声の記録動作(つまり録音)、及び音パラメータの算出及び保存の動作を説明する。
図6は、第1の実施形態のレコーダR2における音パラメータの算出、保存の各動作手順の一例を詳細に説明するフローチャートである。閲覧装置30の操作部58は、ユーザによる記録操作の指示を受け付ける(S1)。ユーザによる記録操作の指示が受け付けられると、この指示をトリガとして、レコーダR1は、全方位カメラCAにより撮像された画像の画像データの記録を開始する(S2)。また、レコーダR1は、マイクアレイMAにより収音された音声の音声データの記録を開始する(S3)。
レコーダR2の音パラメータ算出部71は、レコーダR1に記録された画像データ及び音声データを基に、音パラメータである音圧を算出する(S4)。
図7は、音パラメータの算出例を説明する図である。図6のステップS4では、音パラメータは、図7に示すモニタリングエリアSAの撮像画像GZを構成する画素毎に算出される。図7では、画素毎の音パラメータが撮像画像GZに重畳されている。なお、撮像画像GZは、例えば、0〜Nx,0〜Nyのマス目(つまり、画素)に区画される。一例として、Nx=210,Ny=210が挙げられる。マス目を単位として、音の大きさを示す音パラメータが算出される。
ここで、撮像画像GZ上の座標(i,j)における、ある時間tの音の大きさ(音圧)を、f(t,i,j)で表す。なお、ある時間tの音の大きさは、瞬時値でもよいし、ある時間幅(例えば1分)の平均値、最大値、あるいは加算値であってもよい。レコーダR2の音パラメータ算出部71は、表示開始時刻t0から表示終了時刻(t0+τ)(図5参照)における、音の大きさの時間累計値Ft0,τ(i,j)を、数式(1)に従って算出する。
ここで、音パラメータ算出部441は、レコーダR2の音パラメータ算出部71による上述算出処理と同様の処理を行う。また、色情報変換部443は、撮像画像GZ上の全ての座標(i,j)における音の大きさの時間累計値Ft0,τ(i,j)の正規化を行い、正規化後の値を音声ヒートマップMPを構成するRGB値に変換する(数式(2)〜(4)参照)。赤色の値(つまり、R値)であるRt0,τ(i,j),緑色の値(つまり、G値)であるGt0,τ(i,j),青色の値(つまり、B値)であるBt0,τ(i,j)は、それぞれ数式(2)、数式(3)、数式(4)により示される。
数式(2)〜数式(4)において、k,k,kは、それぞれ赤色要素、緑色要素、青色要素の強さをそれぞれ示す定数である。||F||は、ノルムFを示す。なお、ここでは、色情報変換部443は、音源視覚画像をRGB値で表したが、例えばYUV値等の他の色情報で表現してもよいし、RGB値の3色全ての値を使用せずに音源視覚画像を表してもよい。更には、色情報変換部443は、音源視覚画像を、アルファ値を用いて不透明度で表してもよい。
図8は、第1の実施形態の音パラメータが格納されるファイルの構造例を示す図である。音パラメータが格納されるファイルは、ファイルヘッダの欄、ファイルサイズの欄、記録日時の欄、記録時間の欄、“fmt”(fmt(フォーマット)チャンク)の欄、フォーマットバージョンの欄、及び“data”(dataチャンク)の欄により構成される。音パラメータを構成する各要素は、それぞれ4バイトのサイズを有する。音パラメータの実データは、“data”(dataチャンク)欄に格納される。
図6に戻り、音パラメータ保存部72は、音パラメータ保存部72における記録データの一部として、音パラメータ算出部71により算出された音パラメータ(例えば、音の大きさを示すf(t,i,j)、音の大きさの時間累計値Ft0,τ(i,j)を含む)を保存する(S5)。このとき、記録(録画、録音)日時等の時刻情報も記録データの一部として保存される。
記録装置70は、操作部58を介して行われた、ユーザによる記録の停止要求があるか否かを確認する(S6)。停止要求が無かった場合(S6、NO)、記録装置70の処理はステップS2に戻り、停止要求があるまで同様の処理が繰り返される。一方、停止要求があった場合(S6、YES)、記録装置70は本動作を終了する。
図9は、第1の実施形態の音パラメータの表示の動作手順の一例を詳細に説明するフローチャートである。閲覧装置30の操作部58は、ユーザ操作により指定された、レコーダR1に記録された画像データ及び音データを含む映像音ファイルを受け付ける(S11)。映像音ファイルを指定する場合、録画日時選択部104で設定された録画日時の情報が用いられる。
表示対象日時指定部452は、操作部58を介してユーザ操作により指定された、表示対象の時間範囲を受け付ける(S12)。再生制御装置40は、指定された時間範囲に該当する映像をレコーダR1から読み込む(S13)。
音パラメータ算出部441は、ステップS12において指定された時間範囲に該当する音パラメータをレコーダR2から読み込む(S14)。色情報変換部443は、読み込まれた音パラメータを基に、数式(2)〜数式(4)に従って、音の大きさの時間累計値FをRGB値に変換する(S15)。RGB値は、0〜255の範囲で256段階に設定される。色情報変換部443は、例えば青色Bの値を数式(5)に従って算出し、赤色Rの値をは数式(6)に従って算出する。
このRGB値の変換では、例えば音の大きさの時間累計値Ft0,τ(i,j)を正規化した値(便宜的に「正規化値」という)が「0.2」より小さい場合、この画素では、正規化値に応じた青が発色し、赤は発色しない。従って、画素は透明から青みがかった範囲の色を呈する。
また、正規化値が「0.2」以上である場合、この画素では、青が一定のB値(ここでは、「51」)で発色し、赤は正規化値に応じて発色する。これにより、音が大きくなるにつれて、画素は、無色 → 暗い青 → 赤へと変化する。
音パラメータ表示制御部442は、全方位カメラCAにより撮像された撮像画像GZ(例えば、ユーザ操作により指定された時間範囲の先頭時刻における撮像画像GZ。以下同様とする)に、ステップS15で変換されたRGB値に基づく音源視覚画像(音声ヒートマップMP)を重畳して合成画像を生成してモニタ55に表示する(S16)。この後、音パラメータ表示制御部442は本動作を終了する。なお、ここでは、音パラメータ算出部441が音の大きさの時間累計値Fの算出を行う場合を示したが、音パラメータ表示制御部442が行ってもよい。
モニタ55に表示されるGUI100では、図5において前述したように、表示時間単位設定部105のプルダウンメニューによって表示時間単位が例えば「1時間」に設定されると、表示対象範囲設定部106の時間軸上に配置されるスライダ106zの幅(矩形の長さ)に相当する表示時間単位τが変化する。図5では、スライダ106zの中心位置が時刻t1にあり、表示画面101には、時刻t1(例えば10:05:05)における、撮像画像GZと音声ヒートマップMPとの合成画像が表示される。音声ヒートマップMPでは、音の大きい2つの領域mpz1,mpz2が略円形に表示される。
ユーザがスライダ106zを例えば右方向に動かし、時刻t1から時刻t2に変化させると、撮像画像GZが変化するとともに、音声ヒートマップMPが変化し、時刻t2における、撮像画像GZに重畳された音声ヒートマップMPが表示される。図10は、モニタ55に表示される時刻t2におけるGUI100の一例を示す図である。時刻t2における表示画面101では、撮像画像GZにおいて、発話している人物が変わったことによって、図5と比べ、音の大きい領域mpz3が移動していることが分かる。
このように、第1の実施形態の音声モニタリングシステム5では、全方位カメラCAは、モニタリングエリアSAを撮像する。マイクアレイMAは、モニタリングエリアSAの音を収音する。記録装置70は、全方位カメラCAにより撮像された撮像画像及び撮像時刻とマイクアレイMAにより収音された音とを対応付けて記録する。音パラメータ算出部71,441は、全方位カメラCAの撮像中にマイクアレイMAにより収音された音を基に、撮像時刻におけるモニタリングエリアSAの音の大きさを示す音パラメータを、モニタリングエリアSAの撮像画像を構成する画素の所定単位毎に、一定時間毎に算出する。音パラメータ保存部72は、音パラメータ算出部71,441により算出された音パラメータを、撮像時刻における撮像画像上の位置情報と対応付けて保存する。音パラメータ表示制御部442は、音パラメータ算出部71,441により算出された画素の所定単位毎の音パラメータに基づく音源視覚画像を、モニタリングエリアSAの撮像画像を構成する画素の所定単位毎に重畳してモニタ55に表示する。このとき、音パラメータ表示制御部442は、時間範囲の指定に応じて、音パラメータ保存部72に保存された音パラメータの時間範囲における音の大きさの累計値Fに基づく音源視覚画像を、モニタリングエリアSAの撮像画像を構成する画素の所定単位毎に重畳してモニタ55に表示する。
これにより、音声モニタリングシステム5は、マイクアレイMAにより収音された音の大きさを示す音パラメータを用いて、モニタリングエリアSAにおける音源を具体的に可視化することができる。また、音源を可視化する際、音の大きさと累計時間(継続時間)を基に、色情報(例えば、RGB値)を提示することができる。従って、店舗内で店員と来店客とが会話している音声等を可視化することができ、店員の接客態度や来店客の動向を分析できる。更に、店舗内の音声を分析する場合、単に音の大きさだけでなく、音の累計時間(音声継続時間)である会話量も得られるので、過去に遡って多くの会話量を情報として収集し分析可能である。また、映像と併せることでより詳細な分析も可能となる。また、モニタリングエリアSAで収音された音の大きさの分布をリアルタイムで可視化することも可能である。このように、音声を可視化して分析することができる。従って、モニタリングエリアSAのどの場所で会話が頻繁に行われているか、ユーザに対して視覚的に提示することができ、店舗内で発話している来店客の動向が分かるようになる。
(第2の実施形態)
第2の実施形態の音声モニタリングシステム5のシステム構成は第1の実施形態の音声モニタリングシステムのシステム構成と同一であるため、重複する説明は簡略化又は省略し、異なる内容について説明する。
第1の実施形態では、閲覧装置30は、音圧パラメータとして、撮像画像上の座標(i,j)における、ある時間tの音の大きさをf(t,i,j)で表し、このf(t,i,j)を用いて音の大きさの時間累計値Ft0,τ(i,j)を算出した。第2の実施形態では、音の検知の有無によって音の情報量を2値化(つまり、圧縮)してから、音の大きさの時間累計値Ft0,τ(i,j)を算出する。
具体的に、音パラメータ算出部71は、数式(7)に示すように、ある時間tの座標(i,j)における音の大きさf(t,i,j)と、音声を検出するための閾値Vdetとを比較することで、音の有無を示すパラメータf’(t,i,j)を算出する。
なお、閾値Vdetは、定数でなく、例えば時間によって変動する値Vdet(t)であってもよい。音パラメータ算出部71は、表示開始時刻t0から表示終了時刻(t0+τ)(図5参照)における、音の大きさの時間累計値Ft0,τ(i,j)を、数式(8)に従って算出する。
なお、音パラメータ算出部441は、レコーダR2の音パラメータ算出部71による上述算出処理と同様の処理を行う。また、色情報変換部443は、第1の実施形態と同様に、撮像画像GZ上の全ての座標(i,j)における音の大きさの時間累計値Ft0,τ(i,j)の正規化を行い、正規化後の値を音声ヒートマップMPを構成するRGB値に変換する。
このように、第2の実施形態の音声モニタリングシステム5では、音パラメータ算出部71,441は、音の大きさを音声の検知の有無を示す2値化情報を用いて、音パラメータ並びに音の大きさの時間累計値Fを算出する。このように、音の有無を検出し、音の情報量を圧縮してから、音の時間累計値Ft0,τ(i,j)を算出するので、音パラメータ算出部71,441における処理の負荷を相当に軽減できる。
(第3の実施形態)
第3の実施形態の音声モニタリングシステム5のシステム構成は第1の実施形態の音声モニタリングシステムのシステム構成と同一であるため、重複する説明は簡略化又は省略し、異なる内容について説明する。
閲覧装置30は、画素の所定単位毎の音の大きさの時間累計値Ft0,τ(i,j)をRGB値に変換して音源視覚画像に色を付与する際、表示対象としてユーザ操作により指定された時間範囲が長くなる程、モニタリングエリアSA全体に万遍なく音声検知を行う。このため、撮像画像GZの表示画面101全体に色が付くことになる。このような表示画面101全体に色が付いて見にくくなることを回避するために、第3の実施形態では、所定の条件を満たす音の大きさの時間累計値Ft0,τ(i,j)に対してのみ、音パラメータに対応するRGB値をそれぞれ算出する。
具体的には、閲覧装置30は、ユーザ操作により指定された時間範囲の中で、「どれだけの時間、音声を検出したか」という情報を用い、指定された時間範囲の何%以上、音声検知が行われたかという条件を基にして、対応する画素の音源視覚画像に色を付ける。
これにより、撮像画像GZの中でユーザが必要としない余分な音源の周囲に色の付いた音源視覚画像を画面表示することが抑制される。一例として、閲覧装置30は、指定された時間範囲が30分である場合に、その10%に相当する3分に満たない音声に対しては、その音声の音源の周囲に表示する音源視覚画像に色を付けないようにしてもよい。
図11は、第3の実施形態のRGB値への変換動作手順の一例を詳細に説明するフローチャートである。色情報変換部443は、座標(i,j)における音の大きさの時間累計値Fが閾値Vmin以上であるか否かを判別する(S21)。ここで、閾値Vminは、音声が検知された音源の周囲に表示される音源視覚画像に色を付けるか否かを判断するための閾値である。例えば、ユーザ操作により指定された時間範囲をTselとし、表示閾値p%とした場合、閾値Vminは、Vmin = Tsel × P/100 で表される。ここで、表示閾値は、ユーザ操作により指定された時間範囲に応じて、音声が検知された音源の周囲に色の付いた音源視覚画像を表示してよいと判断可能な相対割合を示す。
音の大きさの時間累計値Fが閾値Vmin以上である場合(S21、YES)、色情報変換部443は、例えば数式(9)及び数式(10)に従って、音の大きさの時間累計値FをRGB値に変換する(S22)。なお、数式(9)ではB(青色)の値を、数式(10)ではR(赤色)の値をそれぞれ例示しており、G(緑色)の値は例えばゼロである。但し、G(緑)の値も、数式(9)や数式(10)のように音の大きさの時間累計値Fの大きさに従って変化するように設定されても構わない。
一例として、このRGB値の変換では、閾値Vminは、「0.5」より小さい値に設定される。音の大きさの時間累計値Ft0,τ(i,j)を正規化した値が閾値Vminより小さい場合、Bt0,τ(i,j)で表される青色のB値は、「0」であり、音の大きさの時間累計値Ft0,τ(i,j)を正規化した値が0.5未満である場合、Rt0,τ(i,j)で表される赤色のR値は、「0」である。
また、音の大きさの時間累計値Ft0,τ(i,j)を正規化した値が閾値Vmin以上であり、かつ、「0.5」より小さい場合、青色のB値は音の大きさの時間累計値Ft0,τ(i,j)を正規化した値に応じて変化し、赤色のR値は「0」である。この場合、音の大きさによって画素は青みがかってくる。
更に、音の大きさの時間累計値Ft0,τ(i,j)を正規化した値が「0.5」以上である場合、青色のB値は「51」と一定値であり、赤色のR値は音の大きさの時間累計値Ft0,τ(i,j)を正規化した値に応じて変化する。従って、音が大きくなるにつれて、赤色が強くなってくる。これにより、音源の音が大きくなるにつれて、閲覧装置30は、該当する画素に対応する音源視覚画像を、無色→青→赤へと色を変化させる。
音パラメータ表示制御部442は、全方位カメラCAにより撮像された撮像画像GZに、ステップS22で変換されたRGB値に基づく音源視覚画像(音声ヒートマップMP)を重畳して合成画像を生成してモニタ55に表示する(S23)。この後、音パラメータ表示制御部442は本動作を終了する。
このように、第3の実施形態の音声モニタリングシステム5では、音パラメータ表示制御部442は、ユーザ操作により指定された時間範囲とその時間範囲における音の大きさの時間累計値との相対値に基づいて、音声ヒートマップMP(音源視覚画像)を色情報で表示する。これにより、閲覧装置30は、音の大きさの時間累計値Ft0,τ(i,j)をRGB値に変換して画面に色を付ける際、時間範囲を長時間とする表示対象に設定しても、画面全体に色が付いて見にくくなることを回避することができる。また、音パラメータ表示制御部442は、音の大きさの時間累計値Fの絶対値に基づいて、音声ヒートマップMP(音源視覚画像)を色情報で表示してもよく、上述と同様の効果を得ることができる。
(第4の実施形態)
第4の実施形態の音声モニタリングシステム5のシステム構成は第1の実施形態の音声モニタリングシステムのシステム構成と同一であるため、重複する説明は簡略化又は省略し、異なる内容について説明する。
第4の実施形態では、第3の実施形態と同様、閲覧装置30は、画素の所定単位毎の音の大きさの時間累計値Ft0,τ(i,j)をRGB値に変換して音源視覚画像に色を付ける際、所定の条件を満たす音の大きさの時間累計値Ft0,τ(i,j)に対してだけ、RGB値を算出する。
具体的には、閲覧装置30は、ユーザ操作により指定された時間範囲に拘わらず、「どれだけの時間、音声を検出したか」という情報を用い、一定時間の音声検知が行われた場合に対応する画素の音源視覚画像に色を付ける。
第4の実施形態の閲覧装置30におけるRGB変換動作は、第3の実施形態と同様であるので、その説明を省略する。例えば、図11のステップS21の判断において、音の大きさの時間累計値Fが閾値Vmin以上であっても、絶対値としての一定時間の音声検知が行われていない場合には、「NO」と判断されてRGB値の算出が行われないようにする。
このように、第4の実施形態における音声モニタリングシステム5では、閲覧装置30は、例えば累計1分以上の発話があった場所のみ画面上に表示させることができ、音の大きさの時間累計値Ft0,τ(i,j)をRGB値に変換して画面に色を付ける際、時間範囲を長時間とする表示対象に設定しても、画面全体に色が付いて見にくくなることを回避することができる。
(第5の実施形態)
第5の実施形態の音声モニタリングシステム5のシステム構成は第1の実施形態の音声モニタリングシステムのシステム構成と同一であるため、重複する説明は簡略化又は省略し、異なる内容について説明する。
第3及び第4の実施形態では、閾値Vminは、予め設定された固定値(例えば「0.5」より小さな値)であったが、第5の実施形態では、ユーザが閾値Vminを任意に設定可能である場合を示す。
図12は、第5の実施形態のモニタ55に表示されるGUI100の一例を示す図である。第1の実施形態のGUI100と同一の構成要素については同一の符号を付すことで、その説明を省略する。GUI100には、更に、表示下限設定部111が設けられる。表示下限設定部111は、プルダウンメニュー111zを有し、音声検知に基づく音源視覚画像を表示画面101上に表示させるか否かを判断するための閾値Vminの条件を任意に設定可能である。ここでは、プルダウンメニュー111zに、「5分以上の発話を表示」、「10分以上の発話を表示」、「10%以上の発話を表示」、「すべて表示」を含む複数の項目が表示され、ユーザによって選択可能である。図12では、「10分以上の発話を表示」の項目が選択されている。
表示画面101には、表示下限設定部111で設定された閾値Vminの条件に従って音パラメータ算出部441により算出された音の大きさの時間累計値Fに基づいて色情報変換部443により生成された音声ヒートマップMP(つまり、音源視覚画像)が撮像画像GZに重畳されて表示されている。
このように、例えば、「5分以上の発話を表示」や「指定時間の10%以上の発話を表示」の項目を設定することで、ユーザは、表示画面101上の色の付き方と発話時間との関連性を直感的に把握することができる。
第5の実施形態における音声モニタリングシステム5では、閲覧装置30は、音の時間累計値Fに基づいて音声ヒートマップMPをRGB値で表示する際、GUI100に対してユーザ操作により指定された条件を受け付け可能である。つまり、GUI100を用いて、閾値Vminに基づく条件をユーザが任意に設定可能であることから、ユーザの操作性と視認性が向上する。
(第6の実施形態)
第6の実施形態の音声モニタリングシステム5のシステム構成は第1の実施形態の音声モニタリングシステムのシステム構成と同一であるため、重複する説明は簡略化又は省略し、異なる内容について説明する。
閲覧装置30は、記録装置70に録画録音されたデータを用いて、ユーザが指定した時間範囲における音パラメータに基づいて音源視覚画像(音声ヒートマップMP)をモニタ55に表示する際、時間範囲が1時間や1日等長い場合、一定時間毎に保存された音パラメータを全て足し合わせたり、平均化したりするのに時間がかかることがある。
第6の実施形態では、ユーザ操作により指定された時間範囲が長くても、音源視覚画像(音声ヒートマップMP)の表示までの音パラメータの演算等の処理時間を短縮するために、音パラメータ保存部72は、例えば1秒に1回の間隔で音パラメータを保存する場合に、更に、60秒毎に60秒分の足し合わせ又は平均化した音パラメータ(60秒を1区間とする、区間の音パラメータ)も算出して保存する。また、音パラメータ表示制御部442は、ユーザ操作により指定された時間範囲に応じて、読み込む音パラメータを1秒単位か60秒単位のいずれかを選択する。音パラメータ算出部71は、選択された単位で音パラメータを算出する。なお、一定時間の単位として、60秒が用いられたが、この値は一例に過ぎず、より長い時間、例えば1時間、24時間等の任意の時間が単位として用いられてもよい。
図13は、第6の実施形態の60秒単位の音パラメータが格納されるファイルの構造例を示す図である。60秒単位の音パラメータは、第1の実施形態における図8に示すファイルの構造例に加え、「1秒毎の音パラメータ×60個」、「直前60秒分の音パラメータ平均値」、…の要素を含む。
音パラメータ保存部72は、1秒に1回の頻度で音パラメータを保存する他、音パラメータ算出部71によって算出された、60秒毎に60秒分の音パラメータを足し合わせ又は平均化した音パラメータを保存する。更には、音パラメータ保存部72は、音パラメータ算出部71によって算出された、1時間毎に1時間分の音パラメータを足し合わせ又は平均化した音パラメータを保存する。
このように、第6の実施形態の音声モニタリングシステム5では、音パラメータ算出部71,441は、音パラメータを一定時間毎に算出する間隔(第1間隔)のN(Nは値2以上の整数)倍以上の間隔(第2間隔)を1つの区間として、区間の音パラメータを算出する。音パラメータ保存部72は、同区間の音パラメータを保存する。
例えば、ユーザによって指定された時間範囲が1時間と長い場合であっても、音パラメータ算出部441は、音パラメータ保存部72に保存された、「1秒毎の音パラメータ×60個」、あるいは「直前60秒分の音パラメータ平均値」のデータを用いて、1時間分のデータを加算もしくは平均することで得る。従って、1時間分の音パラメータとして、1秒毎の音パラメータ×3600個を加算する場合と比べ、計算処理が速くなる。また、指定された時間範囲の音パラメータを比較的簡単に計算することができる。これにより、ユーザが時間範囲を指定した後の計算時間を短縮することができる。なお、音パラメータ保存部72は、記録装置70に書き込むタイミングを上述間隔通りに行うことなく、一旦書込時間の短いメモリに蓄えてからまとめて書込時間の長い記憶媒体に書き込むようにしてもよい。
(第7の実施形態)
第7の実施形態の音声モニタリングシステム5のシステム構成は第1の実施形態の音声モニタリングシステムのシステム構成と同一であるため、重複する説明は簡略化又は省略し、異なる内容について説明する。
第6の実施形態では、音パラメータ保存部72は、1秒に1回の頻度で音パラメータを保存する場合、60秒毎に60秒分の音パラメータを足し合わせて又は平均化して音パラメータを保存した。また、音パラメータ保存部72は、1時間毎に1時間分の音パラメータを足し合わせて又は平均化して音パラメータを保存した。
第7の実施形態では、音パラメータ算出部441は、指定された時間範囲に応じて読み込む音パラメータを、例えば第1間隔である1秒単位(短期間)、第2間隔である60秒単位(中期間)、第3間隔である1時間単位(長期間)の少なくとも3つの単位で予め算出しておく。音パラメータ保存部72は、これら算出された3つ以上の時間単位の音パラメータを保存する。
このように、第7の実施形態の音声モニタリングシステム5では、閲覧装置30は、第6の実施形態と同様、ユーザが指定した時間範囲に応じて、3つ以上の時間単位で算出されて保存されている音パラメータのうち適切な(例えば時間範囲の時間単位と同一の単位で算出された)音パラメータの保存結果を用いることで、ユーザが時間範囲を指定した後の計算時間を短縮することができる。なお、音パラメータは、12時間毎に、24時間毎に足し合わせて保存されてもよい。更に、音パラメータは、1時間、10分、1分毎に足し合わせて保存されてもよい。
(第8の実施形態)
第8の実施形態の音声モニタリングシステム5のシステム構成は第1の実施形態の音声モニタリングシステムのシステム構成と同一であるため、重複する説明は簡略化又は省略し、異なる内容について説明する。
閲覧装置30は、記録装置70に録画録音されたデータを用いて、ユーザが指定した時間範囲における音パラメータに基づいて音源視覚画像(音声ヒートマップMP)をモニタ55に表示する際、音パラメータを記録装置70のレコーダR2に保存する間隔が短いと、1秒当たりに書き込むべきデータ量が増える。このため、レコーダR2の記憶領域を圧迫することになる。一方、ユーザによっては、音パラメータのデータがレコーダR2に記録された後から指定した時間範囲における音声ヒートマップMPを見たい場合、1秒単位もしくはそれより短い間隔で見たいことがある。
第8の実施形態では、音パラメータ保存部72は、保存する音パラメータを例えば1秒以上(5秒等)の間隔で保存する。再生時、閲覧装置30の判断部46は、ユーザ操作により指定された時間範囲に応じて、音パラメータ保存部72に保存された音パラメータを参照するか、それともレコーダR1に記録された音データから音パラメータを算出するかを判断する。
図14は、第8の実施形態の音パラメータの表示の動作手順の一例を詳細に説明するフローチャートである。ステップS31〜S33の処理は、第1の実施形態におけるステップS11〜S13の処理と同じであるので、その説明を省略する。
判断部46は、音源視覚画像(音声ヒートマップMP)の表示される時間範囲(言い換えると、ユーザ操作により指定された時間範囲)が音パラメータを保存する間隔(保存間隔、例えば5秒)A1以上であるか否かを判別する(S34)。表示する時間範囲が保存間隔AA1以上である場合(S34、YES)、第1の実施形態におけるステップS14、S15、S16と同様、ステップS35、S36、S37の処理が行われる。即ち、音パラメータ算出部441は、ステップS32において指定された時間範囲に該当する音パラメータをレコーダR2から読み込む(S35)。色情報変換部443は、読み込まれた音パラメータを基に、数式(2)〜数式(4)に従って、音の大きさの時間累計値FをRGB値に変換する(S36)。
音パラメータ表示制御部442は、全方位カメラCAにより撮像された撮像画像GZに、ステップS36で変換されたRGB値に基づく音源視覚画像(音声ヒートマップMP)を重畳して合成画像を生成してモニタ55に表示する(S37)。この後、音パラメータ表示制御部442は本動作を終了する。
一方、ステップS34で、表示する時間範囲が保存間隔AA1未満である場合(S34、NO)、例えば音源視覚画像(音声ヒートマップMP)の表示される時間範囲(言い換えると、ユーザ操作により指定された時間範囲)が1秒である場合、レコーダR2に保存された5秒間隔の音パラメータを使えない。音パラメータ算出部441は、レコーダR1に保存された元の音声データを読み込み(S38)、例えば1秒間隔の音パラメータを算出する(S39)。この後、音パラメータ算出部441の処理はステップS36に進む。
このように、第8の実施形態の音声モニタリングシステム5では、音パラメータ表示制御部442は、音声ヒートマップMP(音源視覚画像)をモニタ55に表示する場合、ユーザ操作により指定された時間範囲に応じて、音パラメータ保存部72に保存された音パラメータを用いるか、レコーダR1に記録された音データを基に音パラメータを算出して用いるかを選択する。
これにより、音パラメータ保存部72は、レコーダR2に保存する音パラメータを、表示する時間範囲より長い保存間隔AA1(例えば5秒以上)の間隔で保存することができる。従って、レコーダR2に保存するデータ量を抑えつつ、元の音声データを用いて音パラメータを再計算する場合を除き、再生時に計算量が増大することなくリアルタイムに音パラメータを表示可能なシステムを提供できる。一方で、音パラメータ算出部441は、ユーザが保存間隔AA1より短い間隔の時間範囲の音声ヒートマップMP(音源視覚画像)を見たい場合に、レコーダR1に記録された音データを基に、保存間隔AA1より短い間隔の時間範囲(例えば3秒)より短い保存間隔(例えば1秒)の間隔で音パラメータを算出及び保存ができる。これにより、ユーザは、保存間隔AA1より短い時間範囲を指定した場合でも、撮像画像GZに重畳される音声ヒートマップMP(音源視覚画像)を把握でき、ユーザの使い勝手が向上する。
(第9の実施形態)
第9の実施形態の音声モニタリングシステム5のシステム構成は第1の実施形態の音声モニタリングシステムのシステム構成と同一であるため、重複する説明は簡略化又は省略し、異なる内容について説明する。
例えば店舗内で人物が発話した場合、閲覧装置30は、店舗内の壁や障害物によって反射される音に基づいて、音声検知に基づく音源視覚画像(音声ヒートマップMP)として撮像画像GZ上に重畳して表示する可能性がある。第9の実施形態では、除外エリア設定部としての領域指定部451は、マイクアレイMAにより収音された音を無効化するための収音除外エリアとして、ユーザ操作により指定されたエリアの座標情報を設定する。
図15は、第9の実施形態のモニタ55に表示されるGUI100の一例を示す図である。GUI100では、表示画面101には、収音除外エリアmk1が表示されている。撮像画像GZ上の収音除外エリアmk1の座標情報は、例えばレコーダR1の撮像画像GZのデータと対応付けて記録されてもよいし、閲覧装置30のメモリ43に撮像画像GZのデータと対応付けて保存されてもよい。音パラメータ算出部71,441は、音パラメータを算出する際、音声が検知された音源の位置を示す座標が収音除外エリアmk1として登録されているか否かを判定し、登録されている場合には、音パラメータの出力を値0とする。
このように、第9の実施形態の音声モニタリングシステム5では、閲覧装置30は、マイクアレイMAにより収音された音を収音対象から除外する収音除外エリアmk1(除外エリア)を設定する。音パラメータ算出部71,441は、設定された収音除外エリアmk1からの音声を抑えて音パラメータを算出する。これにより、明らかに発話が無いような壁や障害物等の場所において、発話等による音声検知の結果が表示されることを防ぐことができる。なお、音パラメータ算出部71,441は、収音除外エリアmk1からの音声を値0として出力する代わりに、低減させて出力してもよい。
(第10の実施形態)
第10の実施形態の音声モニタリングシステム5のシステム構成は第1の実施形態の音声モニタリングシステムのシステム構成と同一であるため、重複する説明は簡略化又は省略し、異なる内容について説明する。
第10の実施形態における音声モニタリングシステム5では、閲覧装置30は、音源が音源視覚画像(音声ヒートマップMP)により具体的に視覚化された情報を基に、ユーザ操作により指定された撮像画像GZ上の音源周囲の実際の音を強調して出力することができる。前述したように、指向音データ生成部42は、マイクアレイMAにより収音された音に対し、マイクアレイMAから、ユーザ操作により指定された音源の位置に向かう方向の音声を強調し、音声の指向性を形成する。この技術は、ビームフォーマ技術とも称される。従って、閲覧装置30は、マイクアレイMAに搭載された各マイクで収音した音を記録装置70に保存しておき、ユーザが希望する再生時に記録された音の信号処理を行うことで、ユーザが指定した位置に該当する箇所に指向性のある音声を形成することが可能である。
また、GUI100の再生リスト108に、短い時間の音声検知期間の項目が数多く載ると、ラベルの数(項目数)が増えて視認性が悪くなる。第10の実施形態では、一定時間未満の音声を無視する。また、音声検知があってから次の音声検知があるまでの時間(音声検知間隔)が短い場合、音声区間をひとくくりにまとめる。例えば、音声検知間隔がN(Nは値2以上の整数)倍以上長い間隔をひとまとめにしてひとつの区間とする。N倍は一例として10倍である。
また、音パラメータ算出部71(又は音パラメータ算出部441)は、ひとくくりにまとめられた区間内の音声パラメータを時間平均又は加算することで、区間内の音パラメータを算出する。音パラメータ保存部72は、算出した区間内の音パラメータを保存する。これにより、音パラメータの算出にかかる時間を抑えることができる。
また、音パラメータをひとまとめにして保存する区間として、音声検知間隔がN倍(例えば10倍)以上長い間隔を示したが、短期間、中期間、長期間と少なくとも3つを含むようにしてもよい。例えば、1分、10分、1時間、1日単位のデータを保存することができ、会話等の状況に応じた適切な区間を設定可能である。
図16は、第10の実施形態のモニタリングエリアSAにおいて検知された音の大きい領域mpz4,mpz5,mpz6の一例を示す図である。ユーザ操作により指定された時間範囲が10:00〜10:30であり、指定エリアFRの座標(Ux,Uy)が音の大きい領域mpz4に設定された場合を示す。ここで、ユーザによって指定された座標(X,Y)を座標(Ux,Uy)と表記する。
図17(A)及び図17(B)は、指定された時間範囲で指定エリアFRの座標(Ux,Uy)における音声検知の状態を説明する図である。図17(A)は、時間範囲10:00〜10:30における音声の有無(音声検知の時間変化)を示すグラフである。図17(B)は、図17(A)に対応する再生リスト108を示す図である。再生リスト108では、ラベル番号001に「10:02〜10:03」の音声検知期間がある。この音声検知期間における音声は、例えば音の大きい領域mpz6において検知されたとする。また、ラベル番号002に「10:05」の音声検知期間がある。この音声検知期間における音声は、再生リスト108に載るものの、1秒に満たない音声時間であり、本実施形態では無視されるので、音の大きい領域を示す音声視覚画像は生成されない。
また、ラベル番号003に「10:10〜10:11」の音声検知期間がある。この音声検知期間における音声は、例えば音の大きい領域mpz4において検知されたとする。ラベル番号004に「10:14〜10:20」の音声検知期間がある。この音声検知期間における音声は、音声検知間隔が短い音声をひとくくりにまとめたもの(図17(A)の符号w参照)であり、例えば音の大きい領域mpz5において検知されたとする。ここでは、4つの音声検知期間が1つにまとめられている。
また、ラベル番号005に「10:22」の音声検知期間がある。この音声検知期間における音声は、1秒に満たない音声時間であり、本実施形態では無視されるので、音の大きい領域を示す音声視覚画像は生成されない。最後に、ラベル番号006に「10:28」の音声検知期間がある。この音声検知期間における音声は、ラベル番号005の音声検知と同様の扱いがなされるので、同様な説明は省略する。
図18は、第10の実施形態の音声の強調処理、再生の各動作手順の一例を詳細に説明するフローチャートである。再生制御装置40は、撮像画像GZに音声ヒートマップMPを重畳した音パラメータの表示処理を行う(S51)。このステップS51の処理は、第1の実施形態のステップS11〜S16の処理と同様であるため、説明を省略する。なお、ステップS51の処理は、第8の実施形態における図14に示すフローチャートで示される処理であってもよい。
領域指定部451は、ユーザが操作部58を介して指定した、撮像画像GZにおいて音声を再生したい位置の指定を受け付ける(S52)。再生したい位置の指定は、ユーザが指定エリアFRを移動させることで行われる。
指向音データ生成部42は、マイクアレイMAから、ユーザ操作により指定された位置に向かう指向方向の音声を強調処理(つまり、指向方向に音声の指向性を形成)する(S53)。再生制御部41は、指向性が形成された指向方向の音声の中から、ユーザが指定した時間範囲の音声を最初から再生する(S54)。音声再生後、再生制御装置40は本動作を終了する。
このように、第10の実施形態の音声モニタリングシステム5では、操作部58は、モニタ55に表示された音声ヒートマップMP(音源視覚画像)の位置を指定する操作を受け付ける。指向音データ生成部42は、指定された音声ヒートマップMPの位置を指向方向として、マイクアレイMAにより収音された音声の指向性を形成し、指向方向の音声データを生成する。再生制御部41は、指向方向の音声データの音声を再生してスピーカ50に出力させる。
このように、ユーザは、GUI100に配置された表示画面101上で任意の位置を指定することで、例えばユーザ操作により指定された時間範囲内で表示された音声ヒートマップMPに対し音の大きい領域を指定することで、所望の音声の内容を聞くことができる。なお、再生制御装置40は、音パラメータの情報を用いて算出した、音声可視化画像に含まれる音の大きい領域をユーザに複数提示して、その選択肢を与えるようにしてもよい。また、音声検知間隔が短い音声をひとくくりにすることで、関連性のある、例えば会話中の音声を漏れなく聞けるようにすることもできる。また、音パラメータの算出にかかる時間を抑えることができる。
(第11の実施形態)
第11の実施形態の音声モニタリングシステム5のシステム構成は第1の実施形態の音声モニタリングシステムのシステム構成と同一であるため、重複する説明は簡略化又は省略し、異なる内容について説明する。
ユーザ操作により指定された時間範囲の音を再生する場合、その時間範囲のどの時間帯に音声があるのか分からないので、再生制御部41が指定された時間範囲の最初から再生しても暫くの間、ユーザには何も音が聞こえないことがあった。また、表示画面101上に可視化された音声視覚画像は、例えば人物の移動等によって時間の経過とともに変化し、音の大きい領域の座標もぶれる(変位する)ので、ユーザが表示画面を見て音源の位置を正確に指し示すことが難しいこともあった。
第11の実施形態の音声モニタリングシステム5では、音パラメータ表示制御部442は、記録装置70から音パラメータを読み込み、指定された時間範囲の音の大きさの時間累計値Fを算出するとともに、音声検知を行った時間情報も併せて保持しておく。再生制御部41は、再生時、指定された時間範囲に対し、音声検知を行った時間情報をオフセットとして加えて再生する。これにより、再生が開始すると、ユーザはすぐに音声を聞くことができる。
また、ユーザが表示画面に表示された音の大きい領域の座標を指定する際、領域指定部451は、その座標を周囲Ncm(Mピクセル)の指定エリアの中で最も音声が大きい座標、又は音声検知している時間が最も長い座標に補正して指定する。これにより、ユーザは、音源の位置(音声の指向方向)を正確に指し示すことができる。また、閲覧装置30は、ビームフォーマ技術を適用した後の音声をより明瞭に再生することができる。
図19は、第11の実施形態の音声の強調処理、再生の各動作手順の一例を詳細に説明するフローチャートである。第10の実施形態における図18のフローチャートに示すステップ処理と同一のステップ処理については同一のステップ番号を付すことで、その説明を省略する。
音パラメータ算出部441は、第10の実施形態のステップS51〜S53と同様の処理を行う(S61)。図20は、モニタリングエリアSAの中からユーザによって選択された指定エリアFRの座標(Ux,Uy)の一例を示す図である。指定エリアFRは、音の大きい領域mpz7,mpz8,mpz9の中から選択される。
図21は、指定エリアFRの座標(Ux,Uy)における音声検知の時間変化例を示すグラフである。図21では、ユーザは、「10:00〜10:10」を時間範囲に指定している。この時間範囲において、有音期間が無音期間に対して不定期に現れる。
音パラメータ算出部441は、ユーザによって指定された時間範囲において、ステップS61で指向性が形成された方向(指向方向)の音声の中で、音の大きさの時間累計値Fを数式(1)に従って算出する(S62)。音パラメータ算出部441は、ユーザによって指定された座標の、周囲の座標に対しても、同様に音の大きさの時間累計値Fを数式(1)に従って算出する(S63)。
指向音データ生成部42は、ユーザに視聴させる音声を、ステップS62,S63で算出された音の大きさの時間累計値Fの中から、最も音の大きさの時間累計値Fが大きい座標を算出し、マイクアレイMAからこの座標に対応する音源に向かう方向を指向方向として、音声の指向性を形成する(S64)。再生制御部41は、ステップS64で指向性が形成された、指向方向の音声において、音声検知が最初に行われるまでのオフセット時間toffsetを推定する(S65)。図21では、前述したように、時間範囲は「10:00〜10:10」に指定される。また、オフセット時間toffsetは、「10:04」辺りであり、このタイミングから有音期間が始まる。
再生制御部41は、ユーザによって指定された時間範囲の最初の時間にオフセット時間toffsetを加えた時間、つまり「10:00+ toffset」から、指向性が形成された(強調処理された)音声を再生する(S66)。この後、再生制御装置40は本動作を終了する。なお、再生制御部41は、「10:00+ toffset」の期間からすぐに、指向性が形成された(強調処理された)音声を再生するのではなく、「10:00+ toffset」より所定時間(例えば数秒)前から音声を再生しても構わない。
このように、第11の実施形態の音声モニタリングシステム5では、再生制御部41は、指定された時間範囲において、音声が検知された音声検知期間(有音期間)からマイクアレイMAで収音された音を再生する。これにより、ユーザは、撮像画像に重畳して表示された音声可視化画像を見て、聞きたい位置と時間範囲を指定して再生の開始を指示すると、再生が開始されてすぐに音声を聞くことができるようになる。
(第12の実施形態)
第12の実施形態の音声モニタリングシステム5のシステム構成は第1の実施形態の音声モニタリングシステムのシステム構成と同一であるため、重複する説明は簡略化又は省略し、異なる内容について説明する。
ユーザによって指定された時間範囲が長いと、どの時間帯でどれくらいの音が出ているか、撮像画像に重畳された音声可視化画像(色情報)だけでは、把握が困難な場合がある。第12の実施形態では、音パラメータ表示制御部442は、記録装置70から音パラメータを読み込んで、指定された時間範囲において音の大きさの時間累計値Fを算出する際、音声検知を行った時間情報も併せて保持しておく。
また、ユーザが音を再生したい撮像画像GZ上の位置を指定すると、音パラメータ表示制御部442は、音パラメータ保存部72を参照し、音声検知区間が複数検知されている場合に、その指定された位置(つまり、撮像画像GZ上の座標)に対応する音パラメータに関する情報の項目(例えば時間帯、図5参照)を、音声検知した時間情報に従って一覧リスト(例えば再生リスト108)にリストアップする。なお、このとき、第11の実施形態で示したように、ユーザによって指定される位置(座標)を補正するようにしてもよい。
また、リストアップされた音パラメータに関する情報の項目をユーザが選択すると、指定された時間範囲に対して項目に記載された時間情報をオフセットとして加えて再生する。これにより、再生が開始すると、ユーザはすぐに音声を聞くことができる。
図22は、第12の実施形態の音声の強調処理、再生の各動作手順の一例を詳細に説明するフローチャートである。第10の実施形態における図18のフローチャートに示すステップ処理と同一のステップ処理については同一のステップ番号を付すことで、その説明を省略する。
音パラメータ算出部441は、第11の実施形態におけるステップS61の処理と同様、第10の実施形態のステップS51〜S53の処理を行う(S71)。音パラメータ算出部441は、ユーザによって指定された時間範囲における、上述指向方向の中で音声の有無を判定する(S72)。
音パラメータ算出部441は、音声有りと判定された時間帯を再生リスト108のラベルとして追加する(S73)。また、音パラメータ算出部441は、その時間帯を再生用としてメモリ43に記憶する。再生制御部41は、ユーザが操作部58を介して指定した、再生リスト108の1つを受け付ける(S74)。
再生制御部41は、ステップS54の処理と同様、指向方向が形成された音声の中から、ユーザが指定した時間範囲のうち、指定された再生リスト108の1つの時間帯の最初から音声を再生する(S74)。音声再生後、再生制御装置40は本動作を終了する。
このように、第12の実施形態の音声モニタリングシステム5では、再生制御部41は、指定された時間範囲における、再生リスト(音声検知期間の一覧)を表示し、この再生リストから選択された音声検知期間の音声を再生する。
これにより、ユーザが音の情報を取得したい指定エリアFRの位置を指定すると、音パラメータ表示制御部442は、音パラメータの中でその座標に対応する音パラメータに関する情報の項目を、音声検知した時間情報に従って、再生リスト108にリストアップする。このように、ユーザは、再生リストに挙げられた項目を選択することで、ユーザによって指定された時間範囲が長い場合であっても、所望の音声をすぐに聞くことができる。
(第13の実施形態)
第13の実施形態の音声モニタリングシステム5のシステム構成は第1の実施形態の音声モニタリングシステムのシステム構成と同一であるため、重複する説明は簡略化又は省略し、異なる内容について説明する。
ユーザ操作により指定された時間範囲において音声検知に基づく音源視覚画像(音声ヒートマップMP)が重畳される際、背景となる撮像画像GZの代わりに、音声検知期間における動画が表示されることが考えられる。この場合、指定された時間範囲の最初から単純に動画を再生してもよいが、音源視覚画像(音声ヒートマップMP)と動画との関連が分かりにくくなる。第13の実施形態では、閲覧装置30は、動画ではなく、その動画を構成する複数の画像フレームから1枚の撮像画像の画像フレームを抽出して用いることで、音源視覚画像(音声ヒートマップMP)と背景となる撮像画像との関連を分かり易くする。
図23は、第13の実施形態の音パラメータの表示の動作手順の一例を詳細に説明するフローチャートである。ステップS81〜S84の処理は、第1の実施形態におけるステップS11〜S14の処理と同じであるので、その説明を省略する。
音パラメータ算出部441は、撮像画像上の座標(i,j)における音の大きさの時間累計値F(i,j)を算出し、その中で最も大きな音の大きさの時間累計値F(i,j)を算出する(S85)。更に、音パラメータ算出部441は、座標(i,j)の中で、指定された時間範囲(つまり、表示開始時刻t0〜表示終了時刻(t0+τ))における最も音声検知時間が長い時間tmを算出する(S86)。再生制御部41は、指定された時間範囲(つまり、表示開始時刻t0〜表示終了時刻(t0+τ))におけるレコーダR1に記録されている画像(動画)の中から、時間tmの画像フレームを抽出してモニタ55の画面に表示する(S87)。
色情報変換部443は、第1の実施形態におけるステップS15と同様、読み込まれた音パラメータを基に、音の大きさの時間累計値FをRGB値に変換する(S88)。音パラメータ表示制御部442は、時間tmの画像フレームに、ステップS88で変換されたRGB値に基づく音源視覚画像(音声ヒートマップMP)を重畳して合成画像とし、モニタ55に表示する(S89)。この後、再生制御装置40は本動作を終了する。
このように、第13の実施形態における音声モニタリングシステム5では、閲覧装置30は、ユーザ操作により指定された時間範囲において、音声検知期間が最も長い時間帯を求める。再生制御部41は、音声ヒートマップMPが重畳される、この時間帯に含まれるシーンのモニタリングエリアSAの撮像画像をモニタ55に表示する。このように、音源視覚画像(音声ヒートマップMP)と最も関連する映像(撮像画像)を1枚絵のように表示することで、音源視覚画像(音声ヒートマップMP)と映像との関連が分かり易くなる。従って、ユーザは、モニタ55に表示された映像における音源を容易に把握できる。
(第14の実施形態)
ユーザ操作により指定された時間範囲が長時間である場合や実際の音声を再生する場合には、閲覧装置30は、その時間範囲の音データを再生しても早期に音声部分を再生できるとは限らず、音声部分が再生されるまでユーザが待たなくてはならないこともある。
第14の実施形態では、閲覧装置30は、ユーザ操作により時間範囲が指定されると、その時間範囲における音データをレコーダR1から読み出して分析し、ユーザが音声検知期間を直感的かつ視覚的に判別可能に、分析結果(例えば発話内容、発話傾向)をモニタ55に表示する。また、閲覧装置30は、分析結果の発話内容を吹き出しとして表示する。これにより、ユーザは、自身が再生したいと考えている音声をモニタ55を見ながら簡単に指定するだけで、音声部分が再生されるまでじっと待つことなく、早期に(つまり、ストレスフリーに)音声部分を聞くことができる。
第14の実施形態の音声モニタリングシステム5Aのシステム構成は、上述した各実施形態の音声モニタリングシステム5と一部異なるので、図24を参照して説明する。図24は、第14の実施形態の音声モニタリングシステム5Aのシステム構成の一例を詳細に示すブロック図である。図24の説明において、図1と同一の構成については同一の符号を付与して説明を簡略化又は省略し、異なる内容について説明する。
図24において、閲覧装置30Aの再生制御装置40Aの信号処理部44Aは、音パラメータ算出部441、音パラメータ表示制御部442、色情報変換部443に加え、発話分析部444を有する。指定部45Aは、領域指定部451、表示対象日時指定部452に加え、吹き出し指定部453を有する。
発話分析部444は、ユーザ操作により録画日時(例えば2016年5月1日)と表示時間単位(例えば1時間)と時間範囲RNG(図25参照、例えば10:00〜11:00)とが指定されると、レコーダR2に記録された音パラメータのデータを用いて、時間範囲RNGのモニタリングエリアSAにおける人物の発話傾向及び発話内容を分析する。発話分析部444は、例えば人物の発話傾向として、モニタリングエリアSAにおいて「少人数(例えば1人)が所定時間以上に発話しているか」、又は「大人数(例えば2人以上の人物)が所定時間未満に発話しているか」を分析する。発話分析部444は、例えば人数と発話時間にそれぞれ固有の閾値を有し、これらの閾値との比較結果に従って、「少人数(例えば1人)が所定時間以上に発話しているか」、又は「大人数(例えば2人以上の人物)が所定時間未満に発話しているか」を分析する。発話分析部444は、人物の発話傾向の分析結果を人物の発話期間と対応付けてモニタ55のGUI100Aに表示する(図25参照)。
図25は、第14の実施形態のモニタ55に表示されるGUI100Aの一部分の一例を示す図である。図25のGUI100Aでは、録画日時選択部104、表示時間単位設定部105、表示対象範囲設定部106とシークバー106Aとが拡大抽出されて示されており、図5に示すGUI100の表示画面101、動作モード設定部102、ライブモード設定部103、設定情報表示部107、再生リスト108の図示は省略されている。
図25に示すGUI100Aでは、ユーザ操作により指定された時間範囲RNG(例えば10:00〜11:00)の詳細が判別可能となるように、時間範囲RNGの詳細が示されたシークバー106Aが表示されている。このシークバー106Aは、発話分析部444により生成されて表示されている。但し、シークバー106Aの表示は、音パラメータ表示制御部442により行われても構わない。
シークバー106Aの左端(つまり、表示開始時刻10:00)から、右端(つまり、表示終了時刻11:00)にかけて、発話分析部444の分析結果が示されている。具体的には、「少人数が所定時間以上(つまり、長時間)に発話している」と分析された発話期間が例えば赤色のブロックRR1,RR2で示され、「大人数が所定時間未満(つまり、短期間)に発話している」と分析された発話期間が例えば青色のブロックBB1,BB2で示される。第14の実施形態では、各ブロックRR1,BB1,BB2,RR2の先頭の時刻(つまり、左端に相当する時刻)を、「検索時刻」という。検索時刻は、発話分析部444における分析結果として、少人数又は大人数の発話時の音声が検知された時の先頭時刻を示す。
ここで、少人数が所定時間以上(つまり、長時間)に発話している状況とは、例えば会議等において発言者(例えば、司会進行者又は説明者)がずっと司会進行をしていたり、議題の説明をしたりしている状況が考えられる。また、大人数が所定時間未満(つまり、短時間)に発話している状況とは、例えば会議等において複数の人物が議題について意見交換等している状況が考えられる。
なお、発話分析部444は、各ブロックにユーザ操作によりカーソルが近付けられると、該当するブロックに対応する発話内容の要約情報を生成し、その要約情報をポップアップ表示させてもよい。ここでいう要約情報は、例えば発話人物や発話内容などの音声のデータから得られるものや、その他外部から取得されるデータを表示させても構わない。なお、発話人物は、撮像画像に映っている人物の情報が予め外部DB等に保存されている場合に、発話が検知された時の撮像画像上の位置(音パラメータが算出された画素の位置)と上述した撮像画像に映っている人物の情報との照合により、発話分析部444により判断可能である。
吹き出し制御部としての吹き出し指定部453は、発話分析部444の分析により得られた人物の発話内容を吹き出しとして、撮像画像GZ中の該当する人物に対応付けてモニタ55に表示する。吹き出し指定部453は、人物の発話内容に対応する音パラメータに基づく音源視覚画像が無色である撮像画像GZ上の位置を、吹き出しの表示位置として決定する。また、吹き出し指定部453は、人物の発話内容に対応する音パラメータに基づく音源視覚画像が有色(例えば赤色、青色)である撮像画像GZ上の位置を、吹き出しの表示位置として使用しないと決定する。これにより、音源視覚画像が有色であればその周囲に音源が存在し、更に、音源視覚画像が無色であれば、その周囲に音源が存在していないので、閲覧装置30は、音源視覚画像の視認性を劣化させず、音源視覚画像が無色である撮像画像GZ上の位置を、吹き出しの適切な表示位置として使用できる。
また、吹き出し指定部453は、撮像画像GZの中心点Oと撮像画像GZ上の音源の位置とを結ぶ線に沿って、かつ中心点Oから離反する位置を、吹き出しの表示位置として決定してもよい(図27参照)。図26は、ユーザ操作により指定された時間範囲RNGの表示開始時刻における撮像画像GZに、音源視覚画像(音声ヒートマップMP)が重畳された表示例を示す図である。図27は、ユーザ操作により指定された検索時刻における撮像画像GZに、音源視覚画像(音声ヒートマップMP)と複数人の発話内容とが重畳された表示例を示す図である。図27の説明において、図26と同一のものには同一の符号を付して説明を簡略化又は省略し、異なる内容について説明する。
図26では、GUI100Aの表示画面101Aにおいて、人物JB1の発話時の音パラメータに基づく音源視覚画像(例えば赤色)が領域mpz1で示され、人物JB2の発話時の音パラメータに基づく音源視覚画像(例えば赤色),音源視覚画像(例えば青色)が領域mpz2,mpz4でそれぞれ示され、更に、人物JB3の発話時の音パラメータに基づく音源視覚画像(例えば青色)が領域mpz3で示されている。また、人物の発話ではない他の音源に基づく音源視覚画像(例えば青色)が領域mpz5,mpz6,mpz7でそれぞれ示されている。
図27では、撮像画像GZの中心点O(つまり、撮像画像GZの画像中心)と音源視覚画像の領域mpz1,mpz2,mpz3とを結ぶ線LN1,LN2,LN3に沿って、かつ中心点Oからそれぞれ離反する位置に、吹き出しF1,F2,F3が表示されている。撮像画像GZは例えば魚眼レンズを用いた全方位カメラCAにより撮像されているので、撮像画像GZの外側は歪みが生じやすく、また壁等の不必要な物が映ることもあるので、一般に画像情報としての視認性は、画像外側の方が画像中心側に比べると良くないという特性がある。吹き出し指定部453は、この特性を利用して、撮像画像GZの中心点Oと音源視覚画像の領域mpz1,mpz2,mpz3とを結ぶ線LN1,LN2,LN3に沿って、かつ中心点Oからそれぞれ離反する位置に、吹き出しF1,F2,F3の表示位置と決定して吹き出しF1,F2,F3をそれぞれ表示する。
また、全方位カメラCAの筐体背面(不図示)が例えば天井面に当接し、魚眼レンズのレンズ中心が鉛直下方向を向くように取り付けられた場合、撮像画像GZに映った人物は、頭部が中心より外側(つまり、撮像画像の中心点Oから離反する側)に位置し、足部が中心より内側(つまり、撮像画像の中心点Oに近付く側)に位置することが多い。この観点から見ても、吹き出しF1,F2、F3が中心点Oから離反する位置に表示されると、頭部に近い位置で吹き出しが表示されるので、より吹き出しの表示位置として適切となる。
図28は、第14の実施形態の音パラメータの表示の動作手順の一例を詳細に説明するフローチャートである。ステップS91,S92,S93の処理は、第1の実施形態におけるステップS11,S12,S13及びS14の処理とそれぞれ同じであるので、その説明を省略する。
音パラメータ表示制御部442は、ステップS91〜ステップS93の処理により、ユーザ操作により指定された時間範囲RNG(図25参照)の例えば先頭時刻における撮像画像に、音パラメータに基づく色情報変換済みの音源視覚画像(音声ヒートマップMP)を生成してモニタ55の表示画面101の撮像画像GZ上に重畳して表示する(S94)。
発話分析部444は、ユーザ操作により録画日時と表示時間単位と時間範囲RNG(図25参照)とが指定されると(S92)、ステップS93においてレコーダR2から読み出した音パラメータのデータを用いて、時間範囲RNGのモニタリングエリアSAにおける人物の発話傾向及び発話内容を分析する(S95)。更に、発話分析部444は、この分析結果を基に、それぞれの人物の発話内容の発話時となる検索時刻を、それぞれの発話内容毎に算出する(S95)。上述したように、検索時刻は、図25の各ブロックRR1,BB1,BB2,RR2の先頭(左端)の時刻を示す。発話分析部444は、検索時刻の算出に伴い、GUI100Aのシークバー106A上に、各発話期間を示す各ブロックRR1,BB1,BB2,RR2を色付け表示してシークバー106Aの表示を更新する(S96)。
ここで、ユーザ操作により、いずれか1つの検索時刻(言い換えると、各ブロックRR1,BB1,BB2,RR2のうちいずれかのブロック)が指定されたとする(S97)。発話分析部444は、指定された検索時刻における音データをレコーダR1から読み出し(S98)、その音データを用いて吹き出しに表示される発話内容のテキストデータを生成する(S99)。例えば、発話分析部444は、読み出した音データに対して公知技術の音声認識処理を施すことで、音データから得られた発話内容(例えば会話内容)のテキストデータを抽出して生成する。
吹き出し指定部453は、指定された検索時刻(つまり、指定されたブロック)における音パラメータのデータを基に、ステップS99により生成された発話内容が含まれる吹き出しの表示位置を決定する(S100)。音パラメータ表示制御部442は、指定された検索時刻(つまり、指定されたブロック)における撮像画像(例えば、検索時刻の時に撮像されていた撮像画像)をレコーダR1から読み出す(S101)。
音パラメータ表示制御部442は、ユーザ操作により指定された検索時刻における撮像画像に、検索時刻を含むブロックの時間範囲内の音パラメータに基づく色情報変換済みの音源視覚画像(音声ヒートマップMP)を生成してモニタ55の表示画面101の撮像画像上に重畳して表示する(S102)。
更に、音パラメータ表示制御部442は、ステップS100において決定した表示位置に、ステップS99により生成されたテキストデータを含む吹き出しを表示する(S103、図27参照)。
このように、第14の実施形態の音声モニタリングシステム5Aでは、発話分析部444は、ユーザ操作により指定された時間範囲RNGに応じて、レコーダR2の音パラメータ保存部72に保存された音パラメータを基に、時間範囲RNGのモニタリングエリアSAにおける人物の発話傾向及び発話内容を分析する。音パラメータ表示制御部442は、人物の発話傾向の分析結果を人物の発話期間(つまり、図25のシークバー106Aのブロック)と対応付けてモニタ55のGUI100Aに表示する。これにより、閲覧装置30は、ユーザ操作により時間範囲が指定されると、ユーザが音声検知期間を直感的かつ視覚的に判別可能に、分析結果(例えば発話内容、発話傾向)をモニタ55に表示できる。また、閲覧装置30は、分析結果の発話内容を吹き出しとして表示できる。これにより、ユーザは、自身が再生したいと考えている音声をモニタ55を見ながら簡単に指定するだけで、音声部分が再生されるまでじっと待つことなく、早期に(つまり、ストレスフリーに)音声部分を聞くことができ、音声の確認時間を短縮できる。
また、発話分析部444は、人物の発話傾向として、モニタリングエリアSAにおいて1人が所定時間以上発話しているか、又は複数人が所定時間未満に発話しているかを分析する。これにより、閲覧装置30は、ユーザ操作により指定された時間範囲RNGにおいて、人物の発話傾向をより具体的かつ分かり易く分析でき、ユーザの嗜好にかなう使い勝手の良い発話分析を行うことができる。なお、発話分析部444は、複数人が所定時間以上発話していたり、1人が所定時間未満に発話したりしていることも同様に分析可能である。
また、音パラメータ表示制御部442は、発話分析部444による分析により得られた人物の発話を吹き出しとして、撮像画像中の人物に対応付けてモニタ55に表示する。これにより、閲覧装置30は、ユーザが音声を再生する前に発話内容を確認することができ、ユーザが気になる音声の検索時刻(ブロック)の選択に資することができる。
また、吹き出し指定部453は、人物の発話内容に対応する音パラメータに基づく音源視覚画像が無色である撮像画像中の位置を、吹き出しの表示位置として決定する。これにより、音源視覚画像が有色であればその周囲に音源が存在し、更に、音源視覚画像が無色であれば、その周囲に音源が存在していないので、閲覧装置30は、音源視覚画像の視認性を劣化させず、音源視覚画像が無色である撮像画像GZ上の位置を、吹き出しの適切な表示位置として使用できる。
以上、図面を参照しながら各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、上述した各実施形態を適宜組み合わせた音声モニタリングシステムの構成としても構わない。
本発明は、店舗等のモニタリング対象のエリアにおいて、指定された過去の一定期間において、人物がどのくらいの時間、どの程度の音声レベルで来店客に対して接客していたか等を分析し、分析結果を視覚的に示し、モニタリング分析精度を向上することができる音声モニタリングシステム及び音声モニタリング方法として有用である。
5、5A 音声モニタリングシステム
10 マイクアレイ・カメラ装置
25 圧縮処理部
26 送信部
30、30A 閲覧装置
40、40A 再生制御装置
41 再生制御部
42 指向音データ生成部
43 メモリ
44、44A 信号処理部
45、45A 指定部
46 判断部
50 スピーカ
55 モニタ
58 操作部
61 CPU
62 通信部
64 電源管理部
65 イメージセンサ
66x メモリカード
66y RAM
66z ROM
67 ネットワークコネクタ
70 記録装置
71 音パラメータ算出部
72 音パラメータ保存部
441 音パラメータ算出部
442 音パラメータ表示制御部
443 色情報変換部
444 発話分析部
451 領域指定部
452 表示対象日時指定部
453 吹き出し指定部
CA 全方位カメラ
MA マイクアレイ

Claims (19)

  1. モニタリング対象のエリアを撮像するカメラと、
    前記エリアの音を収音するマイクアレイと、
    前記カメラにより撮像された撮像画像及び撮像時刻と前記マイクアレイにより収音された音とを対応付けて記録するレコーダと、
    前記カメラの撮像中に前記マイクアレイにより収音された音を基に、撮像時刻における前記エリアの音の大きさを示す音パラメータを、前記撮像画像を構成する画素の所定単位毎に繰り返して算出する音パラメータ算出部と、
    前記音パラメータ算出部により算出された前記音パラメータを、前記撮像時刻における撮像画像上の位置情報と対応付けて保存する音パラメータ保存部と、
    前記音パラメータに基づく音源視覚画像を、前記撮像画像を構成する画素の所定単位毎に重畳してモニタに表示する音パラメータ表示制御部と、を備え、
    前記音パラメータ表示制御部は、時間範囲の指定に応じて、前記音パラメータ保存部に保存された前記音パラメータの前記時間範囲における累計値に基づく前記音源視覚画像を、前記撮像画像を構成する画素の所定単位毎に重畳して前記モニタに表示する、
    音声モニタリングシステム。
  2. 請求項1に記載の音声モニタリングシステムであって、
    前記音パラメータ算出部は、前記マイクアレイにより収音された音に含まれる音声区間の有無を示す情報を用いて、前記音パラメータを算出する、
    音声モニタリングシステム。
  3. 請求項1に記載の音声モニタリングシステムであって、
    前記音パラメータ表示制御部は、前記時間範囲と前記時間範囲における前記累計値との相対値に基づいて、前記音源視覚画像に色を付与して表示する、
    音声モニタリングシステム。
  4. 請求項1に記載の音声モニタリングシステムであって、
    前記音パラメータ表示制御部は、前記累計値の絶対値に基づいて、前記音源視覚画像に色を付与して表示する、
    音声モニタリングシステム。
  5. 請求項3又は4に記載の音声モニタリングシステムであって、
    前記音パラメータ表示制御部は、前記音源視覚画像を色表示するための条件設定画面を前記モニタに表示する、
    音声モニタリングシステム。
  6. 請求項1に記載の音声モニタリングシステムであって、
    前記音パラメータ算出部は、前記音パラメータを第1間隔毎に繰り返し算出するとともに、前記第1間隔のN(Nは2以上の整数)倍以上となる第2間隔毎に、前記音パラメータを繰り返し算出し、前記第1間隔毎の前記音パラメータの算出結果と前記第2間隔毎の前記音パラメータの算出結果とを前記音パラメータ保存部に保存する、
    音声モニタリングシステム。
  7. 請求項6に記載の音声モニタリングシステムであって、
    前記音パラメータ算出部は、前記第1間隔のP(P>Nの整数)倍以上となる第3間隔毎に、前記音パラメータを繰り返し算出し、前記第1間隔、前記第2間隔、前記第3間隔の少なくとも3個の間隔毎に算出した音パラメータの算出結果を前記音パラメータ保存部に保存する、
    音声モニタリングシステム。
  8. 請求項1に記載の音声モニタリングシステムであって、
    前記音パラメータ表示制御部は、指定された前記時間範囲に応じて、第1間隔毎に前記音パラメータ算出部により算出されて前記音パラメータ保存部に保存された前記音パラメータを用いるか、又は前記レコーダに記録された前記音を基に前記第1間隔より短い間隔毎で前記音パラメータ算出部により音パラメータを算出させて用いるかを選択する、
    音声モニタリングシステム。
  9. 請求項1に記載の音声モニタリングシステムであって、
    前記マイクアレイにより収音された音を無効化するための収音除外エリアを設定する除外エリア設定部、を更に備え、
    前記音パラメータ算出部は、前記収音除外エリアを音源とする音の音パラメータをゼロとして算出する、
    音声モニタリングシステム。
  10. 請求項1に記載の音声モニタリングシステムであって、
    前記モニタに表示された前記音源視覚画像の指定操作に応じて、前記マイクアレイにより収音された音を用いて、前記マイクアレイから、指定された前記音源視覚画像に対応する音源に向かう指向方向の音を強調処理する指向音強調部と、
    強調処理された前記指向方向の音を再生してスピーカに出力させる再生制御部と、を更に備える、
    音声モニタリングシステム。
  11. 請求項10に記載の音声モニタリングシステムであって、
    前記音パラメータ算出部は、指定された前記時間範囲において、指定された前記音源視覚画像を含む周囲で最も前記音パラメータの累計値が大きい位置を算出し、
    前記指向音強調部は、前記マイクアレイから、算出された前記累計値が大きい位置に向かう方向を前記指向方向として、前記マイクアレイにより収音された音を強調処理する、
    音声モニタリングシステム。
  12. 請求項10に記載の音声モニタリングシステムであって、
    前記再生制御部は、指定された前記時間範囲の中で、前記マイクアレイにより収音された音から音声が検知された音声検知期間における、前記指向音強調部による強調処理済みの音声を再生する、
    音声モニタリングシステム。
  13. 請求項12に記載の音声モニタリングシステムであって、
    前記再生制御部は、指定された前記時間範囲の中で前記音声検知期間が複数検知された場合に、前記音声検知期間の一覧リストを前記モニタに表示し、前記一覧リストから選択された音声検知期間における、前記指向音強調部による強調処理済みの音声を再生する、
    音声モニタリングシステム。
  14. 請求項10に記載の音声モニタリングシステムであって、
    前記音パラメータ算出部は、指定された前記時間範囲において、前記マイクアレイにより収音された音から音声が検知された音声検知期間が最も長い時間帯を求め、
    前記再生制御部は、前記音声検知期間が最も長い時間帯に前記カメラにより撮像された撮像映像に、前記音源視覚画像を重畳して前記モニタに表示する、
    音声モニタリングシステム。
  15. 請求項1に記載の音声モニタリングシステムであって、
    前記時間範囲の指定に応じて、前記音パラメータ保存部に保存された前記音パラメータを基に、前記時間範囲の前記エリアにおける人物の発話傾向を分析する発話分析部、を更に備え、
    前記音パラメータ表示制御部は、前記人物の発話傾向の分析結果を前記人物の発話期間と対応付けて前記モニタに表示する、
    音声モニタリングシステム。
  16. 請求項15に記載の音声モニタリングシステムであって、
    前記発話分析部は、前記人物の発話傾向として、前記エリアにおいて1人が所定時間以上に発話しているか、又は複数人が前記所定時間未満に発話しているかを分析する、
    音声モニタリングシステム。
  17. 請求項15に記載の音声モニタリングシステムであって、
    音パラメータ表示制御部は、前記発話分析部により分析された前記人物の発話内容を吹き出しとして、前記撮像画像中の前記人物に対応付けて前記モニタに表示する、
    音声モニタリングシステム。
  18. 請求項17に記載の音声モニタリングシステムであって、
    前記人物の発話内容に対応する音パラメータに基づく前記音源視覚画像が無色である前記撮像画像中の位置を、前記吹き出しの表示位置として決定する吹き出し制御部、を更に備える、
    音声モニタリングシステム。
  19. カメラと、マイクアレイと、レコーダと、再生制御装置とを含む音声モニタリングシステムにおける音声モニタリング方法であって、
    前記カメラは、モニタリング対象のエリアを撮像し、
    前記マイクアレイは、前記エリアの音を収音し、
    前記レコーダは、前記カメラにより撮像された撮像画像及び撮像時刻と前記マイクアレイにより収音された音とを対応付けて記録し、
    前記再生制御装置は、前記カメラの撮像中に前記マイクアレイにより収音された音を基に、撮像時刻における前記エリアの音の大きさを示す音パラメータを、前記撮像画像を構成する画素の所定単位毎に繰り返して算出し、
    前記再生制御装置は、算出された前記音パラメータを、前記撮像時刻における撮像画像上の位置情報を対応付けて前記レコーダに保存し、
    前記再生制御装置は、前記音パラメータに基づく音源視覚画像を、前記撮像画像を構成する画素の所定単位毎に重畳してモニタすることを特徴とし、
    前記再生制御装置は、時間範囲の指定に応じて、前記レコーダに保存された前記音パラメータの前記時間範囲における累計値に基づく前記音源視覚画像を、前記撮像画像を構成する画素の所定単位毎に重畳して前記モニタに表示する、
    音声モニタリング方法。
JP2016148470A 2016-07-28 2016-07-28 音声モニタリングシステム及び音声モニタリング方法 Active JP6739041B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016148470A JP6739041B2 (ja) 2016-07-28 2016-07-28 音声モニタリングシステム及び音声モニタリング方法
US16/320,338 US10930295B2 (en) 2016-07-28 2017-06-06 Voice monitoring system and voice monitoring method
PCT/JP2017/020900 WO2018020841A1 (ja) 2016-07-28 2017-06-06 音声モニタリングシステム及び音声モニタリング方法
US17/175,220 US11631419B2 (en) 2016-07-28 2021-02-12 Voice monitoring system and voice monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016148470A JP6739041B2 (ja) 2016-07-28 2016-07-28 音声モニタリングシステム及び音声モニタリング方法

Publications (3)

Publication Number Publication Date
JP2018019263A true JP2018019263A (ja) 2018-02-01
JP2018019263A5 JP2018019263A5 (ja) 2019-09-12
JP6739041B2 JP6739041B2 (ja) 2020-08-12

Family

ID=61017359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016148470A Active JP6739041B2 (ja) 2016-07-28 2016-07-28 音声モニタリングシステム及び音声モニタリング方法

Country Status (3)

Country Link
US (2) US10930295B2 (ja)
JP (1) JP6739041B2 (ja)
WO (1) WO2018020841A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020036377A1 (ko) * 2018-08-16 2020-02-20 한화테크윈 주식회사 시각화된 객체에서 특정영역의 소리를 추출하는 감시 카메라 시스템 및 그 동작 방법
KR102210041B1 (ko) * 2019-10-01 2021-02-01 (주)에스엠인스트루먼트 Cctv 연계형 음향 시각화 시스템
JP2022040819A (ja) * 2020-08-31 2022-03-11 日産自動車株式会社 画像処理装置及び画像処理方法
US11462235B2 (en) 2018-08-16 2022-10-04 Hanwha Techwin Co., Ltd. Surveillance camera system for extracting sound of specific area from visualized object and operating method thereof

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018034059A1 (ja) * 2016-08-17 2018-02-22 パナソニックIpマネジメント株式会社 音声入力装置、翻訳装置、音声入力方法、及び音声入力プログラム
CN107566743B (zh) * 2017-10-30 2019-10-11 珠海市一微半导体有限公司 移动机器人的视频监控方法
US20220084687A1 (en) * 2018-12-21 2022-03-17 Essilor International A method and device for predicting evolution over time of a vision-related parameter
US20220167083A1 (en) * 2019-04-19 2022-05-26 Sony Group Corporation Signal processing apparatus, signal processing method, program, and directivity variable system
CN110441737B (zh) * 2019-08-26 2023-02-24 上海声茵科技有限公司 一种采用鱼眼镜头的声源定位方法及其设备
WO2022201069A1 (en) * 2021-03-24 2022-09-29 Sony Group Corporation Information processing device, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002186084A (ja) * 2000-12-14 2002-06-28 Matsushita Electric Ind Co Ltd 指向性収音装置、音源方向推定装置および音源方向推定システム
JP2010203800A (ja) * 2009-02-27 2010-09-16 Kumagai Gumi Co Ltd 音源の推定方法とその装置
JP2010206419A (ja) * 2009-03-02 2010-09-16 Kumagai Gumi Co Ltd 音源の推定方法とその装置
US20150006176A1 (en) * 2013-06-27 2015-01-01 Rawles Llc Detecting Self-Generated Wake Expressions
WO2016098315A1 (ja) * 2014-12-15 2016-06-23 パナソニックIpマネジメント株式会社 マイクアレイ、監視システム及び収音設定方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8089563B2 (en) * 2005-06-17 2012-01-03 Fuji Xerox Co., Ltd. Method and system for analyzing fixed-camera video via the selection, visualization, and interaction with storyboard keyframes
JP2008262046A (ja) * 2007-04-12 2008-10-30 Hitachi Ltd 会議可視化システム、会議可視化方法、及び集計処理サーバ
US8363512B2 (en) * 2009-02-27 2013-01-29 Honda Motors Method and apparatus for estimating sound source
US11120818B2 (en) * 2010-11-12 2021-09-14 Nokia Technologies Oy Processing audio with a visual representation of an audio source
JP5857674B2 (ja) * 2010-12-22 2016-02-10 株式会社リコー 画像処理装置、及び画像処理システム
US8972265B1 (en) * 2012-06-18 2015-03-03 Audible, Inc. Multiple voices in audio content
US9679564B2 (en) * 2012-12-12 2017-06-13 Nuance Communications, Inc. Human transcriptionist directed posterior audio source separation
US20150348538A1 (en) * 2013-03-14 2015-12-03 Aliphcom Speech summary and action item generation
US9706168B1 (en) * 2014-10-13 2017-07-11 Surround.IO Room conferencing system with heat map annotation of documents
US10909384B2 (en) * 2015-07-14 2021-02-02 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method
WO2017163688A1 (en) * 2016-03-24 2017-09-28 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method
US10276143B2 (en) * 2017-09-20 2019-04-30 Plantronics, Inc. Predictive soundscape adaptation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002186084A (ja) * 2000-12-14 2002-06-28 Matsushita Electric Ind Co Ltd 指向性収音装置、音源方向推定装置および音源方向推定システム
JP2010203800A (ja) * 2009-02-27 2010-09-16 Kumagai Gumi Co Ltd 音源の推定方法とその装置
JP2010206419A (ja) * 2009-03-02 2010-09-16 Kumagai Gumi Co Ltd 音源の推定方法とその装置
US20150006176A1 (en) * 2013-06-27 2015-01-01 Rawles Llc Detecting Self-Generated Wake Expressions
WO2016098315A1 (ja) * 2014-12-15 2016-06-23 パナソニックIpマネジメント株式会社 マイクアレイ、監視システム及び収音設定方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020036377A1 (ko) * 2018-08-16 2020-02-20 한화테크윈 주식회사 시각화된 객체에서 특정영역의 소리를 추출하는 감시 카메라 시스템 및 그 동작 방법
US11462235B2 (en) 2018-08-16 2022-10-04 Hanwha Techwin Co., Ltd. Surveillance camera system for extracting sound of specific area from visualized object and operating method thereof
KR102210041B1 (ko) * 2019-10-01 2021-02-01 (주)에스엠인스트루먼트 Cctv 연계형 음향 시각화 시스템
JP2022040819A (ja) * 2020-08-31 2022-03-11 日産自動車株式会社 画像処理装置及び画像処理方法
JP7612359B2 (ja) 2020-08-31 2025-01-14 日産自動車株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US20210166711A1 (en) 2021-06-03
US11631419B2 (en) 2023-04-18
US20190272830A1 (en) 2019-09-05
WO2018020841A1 (ja) 2018-02-01
US10930295B2 (en) 2021-02-23
JP6739041B2 (ja) 2020-08-12

Similar Documents

Publication Publication Date Title
JP6739041B2 (ja) 音声モニタリングシステム及び音声モニタリング方法
US20230071638A1 (en) System and method for differentially locating and modifying audio sources
US9973846B2 (en) Microphone array, monitoring system, and sound pickup setting method
KR101238586B1 (ko) 녹화된 미팅 타임라인에서 사용하기 위한 자동 얼굴 추출
US8804033B2 (en) Preservation/degradation of video/audio aspects of a data stream
US9942511B2 (en) Preservation/degradation of video/audio aspects of a data stream
GB2342802A (en) Indexing conference content onto a timeline
US20050220309A1 (en) Sound reproduction apparatus, sound reproduction system, sound reproduction method and control program, and information recording medium for recording the program
CN111866421A (zh) 会议记录系统与会议记录方法
US20070100533A1 (en) Preservation and/or degradation of a video/audio data stream
US20180158446A1 (en) Directionality control system and sound output control method
US20070100860A1 (en) Preservation and/or degradation of a video/audio data stream
JP2016152557A (ja) 収音システム及び収音設定方法
JP6456171B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2017147697A (ja) 情報処理装置、情報処理方法およびプログラム
JP2013183280A (ja) 情報処理装置、撮像装置、及びプログラム
WO2017026387A1 (ja) 映像処理装置、映像処理方法および記録媒体
JP6392578B2 (ja) 音声処理装置、音声処理方法、及び音声処理プログラム
JP4805496B2 (ja) 被保護者映像配信装置、保護者音声ファイル配信装置、保護者画像ファイル配信装置および保護者端末接続装置
JP2025005647A (ja) 会議装置、機器システム、エコー抑制方法、プログラム
KR20250033633A (ko) 반응형 디지털 컨텐츠 제공시스템
JP2005045843A (ja) 動画像の変化点検出方法及び装置
JP2021064870A (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JPWO2018074263A1 (ja) 情報処理装置、情報処理方法、プログラム、およびコミュニケーションシステム
JP2016118713A (ja) 音声分析装置及び音声分析システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200702

R151 Written notification of patent or utility model registration

Ref document number: 6739041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151