JP2024160515A - 映像提供システム及びユーザ端末 - Google Patents
映像提供システム及びユーザ端末 Download PDFInfo
- Publication number
- JP2024160515A JP2024160515A JP2023075607A JP2023075607A JP2024160515A JP 2024160515 A JP2024160515 A JP 2024160515A JP 2023075607 A JP2023075607 A JP 2023075607A JP 2023075607 A JP2023075607 A JP 2023075607A JP 2024160515 A JP2024160515 A JP 2024160515A
- Authority
- JP
- Japan
- Prior art keywords
- person
- video
- information
- vid
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】ユーザに映像を提供する際、映像に映っている人物のプライバシーを適切に守ることができる技術を提供する。
【解決手段】映像提供システムは、ユーザに映像を提供する。秘匿対象人物は、ユーザが見ることを望む表示対象人物以外の人物である。映像提供システムは、1又は複数のカメラによって撮影される1又は複数の映像を取得する。映像提供システムは、人物再同定処理を行うことによって、1又は複数の映像に映っている各人物を追跡して、1又は複数の映像における各人物の位置情報を含む人物情報を取得する。映像提供システムは、人物情報に基づいて、表示対象人物を秘匿化することなく秘匿対象人物を秘匿化するように、1又は複数の映像に対して画像処理を行う。そして、映像提供システムは、画像処理の後の1又は複数の映像をユーザのユーザ端末に表示する。
【選択図】図1
【解決手段】映像提供システムは、ユーザに映像を提供する。秘匿対象人物は、ユーザが見ることを望む表示対象人物以外の人物である。映像提供システムは、1又は複数のカメラによって撮影される1又は複数の映像を取得する。映像提供システムは、人物再同定処理を行うことによって、1又は複数の映像に映っている各人物を追跡して、1又は複数の映像における各人物の位置情報を含む人物情報を取得する。映像提供システムは、人物情報に基づいて、表示対象人物を秘匿化することなく秘匿対象人物を秘匿化するように、1又は複数の映像に対して画像処理を行う。そして、映像提供システムは、画像処理の後の1又は複数の映像をユーザのユーザ端末に表示する。
【選択図】図1
Description
本開示は、ユーザに映像を提供する技術に関する。
特許文献1は、映像監視システムを開示している。セキュリティゲート近傍に設置される個人認証装置を俯瞰する画角で監視カメラが設置される。映像監視システムは、セキュリティゲート近傍の映像を撮影する。映像監視システムは、監視カメラで撮影された映像から人物を抽出し、抽出した人物の立ち位置及び挙動に基づいてアクセス認証した人物を特定する。
ユーザに映像を提供する際、映像に映っている人物のプライバシーを適切に守ることが望まれる。
本開示の1つの目的は、ユーザに映像を提供する際、映像に映っている人物のプライバシーを適切に守ることができる技術を提供することにある。
本開示の1つの観点は、ユーザに映像を提供する映像提供システムに関する。
映像提供システムは、1又は複数のプロセッサを備える。
秘匿対象人物は、ユーザが見ることを望む表示対象人物以外の人物である。
1又は複数のプロセッサは、
1又は複数のカメラによって撮影される1又は複数の映像を取得し、
人物再同定処理を行うことによって、1又は複数の映像に映っている各人物を追跡して、1又は複数の映像における各人物の位置情報を含む人物情報を取得し、
人物情報に基づいて、表示対象人物を秘匿化することなく秘匿対象人物を秘匿化するように、1又は複数の映像に対して画像処理を行い、
画像処理の後の1又は複数の映像をユーザのユーザ端末に表示する
ように構成される。
映像提供システムは、1又は複数のプロセッサを備える。
秘匿対象人物は、ユーザが見ることを望む表示対象人物以外の人物である。
1又は複数のプロセッサは、
1又は複数のカメラによって撮影される1又は複数の映像を取得し、
人物再同定処理を行うことによって、1又は複数の映像に映っている各人物を追跡して、1又は複数の映像における各人物の位置情報を含む人物情報を取得し、
人物情報に基づいて、表示対象人物を秘匿化することなく秘匿対象人物を秘匿化するように、1又は複数の映像に対して画像処理を行い、
画像処理の後の1又は複数の映像をユーザのユーザ端末に表示する
ように構成される。
本開示によれば、ユーザに映像が提供される際、映像に映っている秘匿対象人物が秘匿化される。これにより、秘匿対象人物のプライバシーを適切に守ることが可能となる。また、人物再同定処理を利用することによって、1又は複数の映像に映っている各人物を安定的に且つ高精度に追跡することが可能となる。これにより、表示対象人物と秘匿対象人物の誤認識が抑制される。従って、表示対象人物を秘匿化することなく秘匿対象人物を秘匿化する画像処理を高精度に行うことが可能となる。その結果、秘匿対象人物のプライバシーを更に適切に守ることが可能となる。
1.概要
図1は、本実施の形態に係る映像提供システム10の概要を説明するための概念図である。映像提供システム10は、所定エリアに設置されたカメラCAMによって撮影される映像VIDを取得する。そして、映像提供システム10は、その映像VIDをユーザに提供(提示)する。より詳細には、映像提供システム10は、ユーザ端末を含んでおり、映像VIDをユーザ端末に表示する。例えば、親が子供の様子を見守るための見守りサービスにおいて、子供が映っている映像VIDが親のユーザ端末にリアルタイムに表示される。親はユーザ端末に表示される映像VIDを見ることによって、子供の様子を見守ることができる。
図1は、本実施の形態に係る映像提供システム10の概要を説明するための概念図である。映像提供システム10は、所定エリアに設置されたカメラCAMによって撮影される映像VIDを取得する。そして、映像提供システム10は、その映像VIDをユーザに提供(提示)する。より詳細には、映像提供システム10は、ユーザ端末を含んでおり、映像VIDをユーザ端末に表示する。例えば、親が子供の様子を見守るための見守りサービスにおいて、子供が映っている映像VIDが親のユーザ端末にリアルタイムに表示される。親はユーザ端末に表示される映像VIDを見ることによって、子供の様子を見守ることができる。
例えば、人物P11は、ユーザAが見守りたい対象である。その人物P11は、カメラCAM-1によって撮影される映像VID-1に映っている。但し、その映像VID-1には他の人物P12、P13も映っている。この場合、映像VID-1をユーザAに提供(提示)するにあたって、人物P11以外の人物P12、P13のプライバシーを守ることが望ましい。そこで、映像提供システム10は、人物P12、P13を秘匿化する(anonymize)ように映像VID-1に対して画像処理を行う。言い換えれば、映像提供システム10は、人物P12、P13が特定されないように映像VID-1に対して画像処理を行う。例えば、人物P12、P13の顔が少なくともマスクされるように画像処理が行われる。そして、映像提供システム10は、画像処理後の映像VID-1’をユーザAのユーザ端末に表示する。
他の例として、人物P13は、ユーザBが見守りたい対象である。この場合、映像提供システム10は、人物P13以外の人物P11、P12を秘匿化するように映像VID-1に対して画像処理を行う。そして、映像提供システム10は、画像処理後の映像VID-1’をユーザBのユーザ端末に表示する。
また、カメラCAM-2によって撮影される映像VID-2には人物P21、P22が映っている。ここで、映像VID-1に映る人物P13と映像VID-2に映る人物P21は同一であるとする。カメラCAM-1とカメラCAM-2の画角が重なっていない場合、映像VID-1に人物P13が映るタイミングと映像VID-2に人物P21が映るタイミングは異なる。カメラCAM-1とカメラCAM-2の画角が部分的に重なっている場合、映像VID-1に人物P13が映るタイミングと映像VID-2に人物P21が映るタイミングは同一である可能性もある。いずれの場合であっても、映像提供システム10は、後述の手法によって、映像VID-1に映る人物P13と映像VID-2に映る人物P21が同一であると正しく認識(判断)する。その上で、映像提供システム10は、人物P21以外の人物P22を秘匿化するように映像VID-2に対して画像処理を行う。そして、映像提供システム10は、画像処理後の映像VID-2’をユーザBのユーザ端末に表示する。例えば、映像提供システム10は、映像VID-1’と映像VID-2’を切り替えて表示する。
更に他の例として、ユーザCは、映像VID-1内の人物以外の背景(例:交通流)を監視する。この場合、映像提供システム10は、人物P11、P12、P13の全てを秘匿化するように映像VID-1に対して画像処理を行う。そして、映像提供システム10は、画像処理後の映像VID-1’をユーザCのユーザ端末に表示する。
より一般化して、ユーザが見ることを望む人物を、以下、「表示対象人物TD」と呼ぶ。表示対象人物TDは、ユーザ毎に異なる。典型的には、表示対象人物TDは、ユーザによって指定される。表示対象人物TDがいない場合もある。一方、ユーザによって特定されないように秘匿化される人物を、以下、「秘匿対象人物TX」と呼ぶ。秘匿対象人物TXは、表示対象人物TD以外の人物である。例えば、ユーザAにとって、人物P11は表示対象人物TDであり、人物P12、P13は秘匿対象人物TXである。他の例として、ユーザBにとって、人物P13、P21は表示対象人物TDであり、人物P11、P12、P22は秘匿対象人物TXである。ユーザCにとって、人物P11、P12、P13は秘匿対象人物TXである。
映像提供システム10は、1又は複数のカメラCAM-1~CAM-Nによって撮影される1又は複数の映像VID-1~VID-Nを取得する。ここで、Nは1以上の整数である。映像提供システム10は、1又は複数の映像VID-1~VID-Nに映っている各人物を追跡して、1又は複数の映像VID-1~VID-Nに映っている各人物の画像内位置情報を取得する。更に、映像提供システム10は、画像内位置情報に基づいて、表示対象人物TDを秘匿化することなく秘匿対象人物TXを秘匿化するように、1又は複数の映像VID-1~VID-Nに対して画像処理を行う。言い換えれば、映像提供システム10は、表示対象人物TDが特定され秘匿対象人物TXが特定されないように画像処理を行う。そして、映像提供システム10は、画像処理後の1又は複数の映像VID-1’~VID-N’をユーザ端末に表示する。
このような画像処理によって、ユーザに映像VIDを提供する際、映像VIDに映っている秘匿対象人物TXのプライバシーを適切に守ることが可能となる。ユーザ毎に秘匿対象人物TXが異なっていても、秘匿対象人物TXのプライバシーを適切に守ることが可能となる。すなわち、ユーザ毎に適切なプライバシーコントロールが可能となる。
尚、表示対象人物TDを秘匿化することなく秘匿対象人物TXを秘匿化する画像処理の精度を確保するためには、表示対象人物TDと秘匿対象人物TXを正確に追跡することが必要である。秘匿対象人物TXが表示対象人物TDと誤認識された場合、あるいは、表示対象人物TDが秘匿対象人物TXと誤認識された場合、画像処理の精度は低下する。画像処理の精度の低下は、プライバシー保護の精度の低下につながる。
そこで、本実施の形態によれば、1又は複数の映像VID-1~VID-Nに映っている各人物を追跡するために、「人物再同定(Person Re-identification)」が利用される。人物再同定は、1又は複数の映像VID-1~VID-Nの映像の中から同一人物を識別する技術である。より詳細には、映像VIDを構成する画像の中から人物が検出され、検出された人物全体の特徴量が抽出され、抽出された特徴量に基づいて人物再同定処理が行われる。特徴量の抽出は、機械学習に基づく人物再同定モデルに基づいて行われる。
このような人物再同定処理によって、1又は複数の映像VID-1~VID-Nに映っている各人物を安定的に且つ高精度に追跡することが可能となる。例えば図1において、映像VID-1に映る人物P13と映像VID-2に映る人物P21は同一であったが、そのことも人物再同定処理によって高精度に認識することが可能となる。すなわち、人物再同定処理によって、表示対象人物TDと秘匿対象人物TXの誤認識が抑制される。従って、表示対象人物TDを秘匿化することなく秘匿対象人物TXを秘匿化する画像処理を高精度に行うことが可能となる。その結果、秘匿対象人物TXのプライバシーを更に適切に守ることが可能となる。
以下、本実施の形態に係る映像提供システム10の具体例について詳しく説明する。
2.映像提供システムの例
図2は、本実施の形態に係る映像提供システム10の構成例を示すブロック図である。映像提供システム10は、映像管理システム100、人物情報管理システム200、及びユーザによって使用されるユーザ端末300を含んでいる。
図2は、本実施の形態に係る映像提供システム10の構成例を示すブロック図である。映像提供システム10は、映像管理システム100、人物情報管理システム200、及びユーザによって使用されるユーザ端末300を含んでいる。
2-1.映像管理システム
映像管理システム100は、1又は複数のカメラCAM-1~CAM-Nによって撮影される1又は複数の映像VID-1~VID-Nを取得し、管理する。映像データベース130は、所定期間において取得された1又は複数の映像VID-1~VID-Nのデータベースである。
映像管理システム100は、1又は複数のカメラCAM-1~CAM-Nによって撮影される1又は複数の映像VID-1~VID-Nを取得し、管理する。映像データベース130は、所定期間において取得された1又は複数の映像VID-1~VID-Nのデータベースである。
映像管理システム100は、1又は複数のプロセッサ110(以下、単に「プロセッサ110」と呼ぶ)、及び1又は複数の記憶装置120(以下、単に「記憶装置120」と呼ぶ)を含んでいる。プロセッサ110は、様々な処理を実行する。例えば、プロセッサ110は、CPUを含んでいる。記憶装置120は、処理に必要な様々な情報を格納する。映像データベース130も記憶装置120に格納される。記憶装置120の例としては、HDD、SSD、揮発性メモリ、不揮発性メモリ、等が挙げられる。コンピュータプログラムを実行するプロセッサ110と記憶装置120との協働により、映像管理システム100の機能が実現されてもよい。
2-2.人物情報管理システム
人物情報管理システム200は、1又は複数のカメラCAM-1~CAM-Nによって撮影される1又は複数の映像VID-1~VID-Nを取得する。そして、人物情報管理システム200は、1又は複数の映像VID-1~VID-Nに映っている各人物に関する人物情報PSNを取得し、管理する。例えば、人物情報管理システム200は、人物再同定処理を行うことによって、1又は複数の映像VID-1~VID-Nに映っている各人物を高精度に追跡する。人物情報PSNは、1又は複数の映像VID-1~VID-Nにおける各人物の位置を示す画像内位置情報を含む。人物データベース230は、所定期間において取得された人物情報PSNのデータベースである。
人物情報管理システム200は、1又は複数のカメラCAM-1~CAM-Nによって撮影される1又は複数の映像VID-1~VID-Nを取得する。そして、人物情報管理システム200は、1又は複数の映像VID-1~VID-Nに映っている各人物に関する人物情報PSNを取得し、管理する。例えば、人物情報管理システム200は、人物再同定処理を行うことによって、1又は複数の映像VID-1~VID-Nに映っている各人物を高精度に追跡する。人物情報PSNは、1又は複数の映像VID-1~VID-Nにおける各人物の位置を示す画像内位置情報を含む。人物データベース230は、所定期間において取得された人物情報PSNのデータベースである。
人物情報管理システム200は、1又は複数のプロセッサ210(以下、単に「プロセッサ210」と呼ぶ)、及び1又は複数の記憶装置220(以下、単に「記憶装置220」と呼ぶ)を含んでいる。プロセッサ210は、様々な処理を実行する。例えば、プロセッサ210は、CPUを含んでいる。記憶装置220は、処理に必要な様々な情報を格納する。人物データベース230も記憶装置220に格納される。記憶装置220の例としては、HDD、SSD、揮発性メモリ、不揮発性メモリ、等が挙げられる。コンピュータプログラムを実行するプロセッサ210と記憶装置220との協働により、人物情報管理システム200の機能が実現されてもよい。
図3は、人物情報管理システム200の機能構成例を示すブロック図である。人物情報管理システム200は、機能ブロックとして、人物検出部211、追跡部212、顔認証部213、姿勢推定部214、及び人物情報提供部215を含んでいる。
人物検出部211には、1又は複数の映像VID-1~VID-Nが入力される。各映像VIDは、一連の画像(フレーム)を含んでいる。人物検出部211は、各画像の中の人物を検出する人物検出処理を行う。バウンディングボックスは、画像において検出された人物の位置を表す。人物検出部211は、各画像の中の人物のバウンディングボックスの情報を取得する。尚、人物検出処理は周知技術であり、その手法は特に限定されない。例えば、YOLOXが人物検出部200として利用される。
追跡部212は、1又は複数の映像VID-1~VID-Nに映っている各人物を自動的に追跡する。
例えば、追跡部212は、あるカメラCAMによって撮影される映像VIDの中の同一人物を追跡する。具体的には、追跡部212は、その映像VIDを構成する一連の画像において同一人物を表すバウンディングボックスを追跡する。複数のタイムステップにおいて同一人物を表す複数のバウンディングボックスは互いに関連付けられる。「トラック」は、複数のタイムステップにおいて同一人物を表す複数のバウンディングボックスのセットである。このようなトラッキング処理は周知技術であり、その手法は特に限定されない。例えば、ByteTrackが利用される。
また、追跡部212は、人物再同定処理を行うことによって、1又は複数の映像VID-1~VID-Nに映っている同一人物を追跡する。特に、追跡部212は、人物再同定処理を行うことによって、異なるカメラCAMによって撮影される異なる映像VIDに映っている同一人物を追跡する。より詳細には、追跡部212は、人物の部分の画像に基づいて、再同定処理用の人物の特徴量(以下、「ReID特徴量」と呼ぶ)を抽出する。画像の中の各バウンディングボックスによって囲まれる部分画像が、人物の画像に相当する。追跡部212は、機械学習に基づくReIDモデルを用いることによって、部分画像からReID特徴量を抽出する。特に、追跡部212は、トラックを構成する複数のバウンディングボックスに対してReID特徴量を抽出する。抽出された複数のReID特徴量はトラックと関連付けられる。そして、追跡部212は、ReID特徴量に基づいてマッチングを行い、異なる2以上のトラックが同一か否かを判定する。すなわち、追跡部212は、ReID特徴量に基づいて、1又は複数の映像VID-1~VID-Nに映っている2以上の人物が同一か否かを判定する。尚、このような人物再同定処理は周知技術であり、その手法は特に限定されない。ReIDモデルは、トランスフォーマー(Transformer)に基づくモデルであってもよい。
顔認証部213は、予め登録された人物の顔画像を保持している。顔認証部213は、予め登録された顔画像に基づいて顔認証処理を行うことによって、1又は複数の映像VID-1~VID-Nに映っている人物を個人特定する。例えば、表示対象人物TDの顔画像がユーザによって予め登録される。顔認証部213は、予め登録された顔画像に基づいて顔認証処理を行うことによって、1又は複数の映像VID-1~VID-Nに映っている表示対象人物TDを個人特定する。個人特定された人物は、上述のトラックと関連付けられる。尚、このような顔認証処理は周知技術であり、その手法は特に限定されない。
姿勢推定部214は、人物の部分の画像に基づいて、人物の姿勢(pose)を推定する姿勢推定処理を行う。画像の中の各バウンディングボックスによって囲まれる部分画像が、人物の画像に相当する。姿勢推定部214は、機械学習に基づく姿勢推定モデルを用いることによって、部分画像からキーポイントを抽出し、人物の姿勢を推定する。特に、姿勢推定部214は、トラックを構成する各バウンディングボックスにおける人物の姿勢を推定する。推定された姿勢の情報は、トラックと関連付けられる。尚、姿勢推定処理は周知技術であり、その手法は特に限定されない。例えば、TransPoseが姿勢推定部214として用いられる。
追跡部212は、1又は複数の映像VID-1~VID-Nに映っている各人物に関する人物情報PSNを生成する。例えば、人物情報PSNは、トラック毎に生成される。
図4は、人物情報PSNの一例を示している。図4に示される例では、人物情報PSNは、トラックID、人物ID、カメラID、タイムスタンプ、画像内位置情報、姿勢情報、等の対応関係を示している。トラックIDは、トラックの識別情報である。人物IDは、トラックに関連付けられた人物であって、顔認証部213によって個人特定された人物の識別情報である。トラックを構成する各バウンディングボックスを含む各画像の情報は、1又は複数の映像VID-1~VID-Nから得られる。カメラIDは、各画像を撮影したカメラCAMの識別情報である。タイムスタンプは、各画像が撮影された時刻である。画像内位置情報は、各画像における人物(バウンディングボックス)の位置情報であり、追跡部212が当該人物を追跡することにより得られる。姿勢情報は、各画像における人物の姿勢の情報であり、姿勢推定部214により得られる。
人物データベース230は、所定期間において取得された人物情報PSNのデータベースである。追跡部212は、人物情報PSNを集積することによって、人物データベース230を生成、更新する。
人物情報提供部215は、ユーザ端末300からのリクエストに応答して人物データベース230から必要な人物情報PSNを取得し、人物情報PSNをユーザ端末300に提供する。
2-3.ユーザ端末
ユーザ端末300は、1又は複数のプロセッサ310(以下、単に「プロセッサ310」と呼ぶ)、1又は複数の記憶装置320(以下、単に「記憶装置320」と呼ぶ)、及びユーザインタフェース330を含んでいる。プロセッサ310は、様々な処理を実行する。例えば、プロセッサ310は、CPUを含んでいる。記憶装置320は、処理に必要な様々な情報を格納する。記憶装置320の例としては、HDD、SSD、揮発性メモリ、不揮発性メモリ、等が挙げられる。コンピュータプログラムを実行するプロセッサ310と記憶装置320との協働により、ユーザ端末300の機能が実現されてもよい。
ユーザ端末300は、1又は複数のプロセッサ310(以下、単に「プロセッサ310」と呼ぶ)、1又は複数の記憶装置320(以下、単に「記憶装置320」と呼ぶ)、及びユーザインタフェース330を含んでいる。プロセッサ310は、様々な処理を実行する。例えば、プロセッサ310は、CPUを含んでいる。記憶装置320は、処理に必要な様々な情報を格納する。記憶装置320の例としては、HDD、SSD、揮発性メモリ、不揮発性メモリ、等が挙げられる。コンピュータプログラムを実行するプロセッサ310と記憶装置320との協働により、ユーザ端末300の機能が実現されてもよい。
ユーザインタフェース330は、ユーザから情報を受け付け、また、ユーザに情報を出力するインタフェースである。ユーザインタフェース330は、入力装置と出力装置を含んでいる。入力装置としては、タッチパネル、キーボード、ボタン、等が例示される。出力装置としては、表示装置やスピーカが例示される。
ユーザ端末300は、映像管理システム100及び人物情報管理システム200と通信可能である。ユーザ端末300は、映像管理システム100から必要な映像VIDを取得する。また、ユーザ端末300は、人物情報管理システム200から必要な人物情報PSNを取得する。映像VID及び人物情報PSNは、記憶装置320に格納される。ユーザ端末300は、人物情報PSNに基づいて、映像VIDに対して画像処理を行う。そして、ユーザ端末300は、画像処理後の映像VID’を表示装置に表示する、すなわち、画像処理後の映像VID’をユーザに提供(提示)する。以下、ユーザ端末300による処理の例をより詳しく説明する。
3.ユーザ端末による処理の例
3-1.第1の例
ユーザは、ユーザインタフェース330(入力装置)を用いて、表示対象人物TDの人物IDを指定する。ユーザ端末300は、指定された表示対象人物TDの人物IDを含むリクエストを人物情報管理システム200に送信する。
3-1.第1の例
ユーザは、ユーザインタフェース330(入力装置)を用いて、表示対象人物TDの人物IDを指定する。ユーザ端末300は、指定された表示対象人物TDの人物IDを含むリクエストを人物情報管理システム200に送信する。
人物情報管理システム200は、人物データベース230から指定された表示対象人物TDに関連する人物情報PSNを取得する。例えば、表示対象人物TDに関連する人物情報PSNは、表示対象人物TDと同じカメラCAMに映っている秘匿対象人物TXの人物情報PSNを含む。そのような秘匿対象人物TXの人物情報PSNは、表示対象人物TDの人物情報PSNと共通のカメラIDを有している。表示対象人物TDに関連する人物情報PSNは、表示対象人物TDそのものの人物情報PSNを含んでいてもよい。人物情報管理システム200は、このようにして取得した人物情報PSNをユーザ端末300に送信する。
ユーザ端末300は、人物情報管理システム200から取得した人物情報PSNに含まれるカメラIDを確認する。そして、ユーザ端末300は、そのカメラIDに対応するカメラCAMによって撮影された映像VIDを取得する。例えば、ユーザ端末300は、カメラIDを含むリクエストを映像管理システム100に送信する。映像管理システム100は、映像データベース130からカメラIDに対応するカメラCAMによって撮影された映像VIDを選択し、選択した映像VIDをユーザ端末300に送信する。他の例として、ユーザ端末300は、映像管理システム100から映像VID-1~VID-Nを一旦取得し、それらの中からカメラIDに対応するカメラCAMによって撮影された映像VIDを選択してもよい。
ユーザ端末300は、秘匿対象人物TXの人物情報PSNに基づいて、秘匿対象人物TXを秘匿化するように映像VIDに対して画像処理を行う。より詳細には、ユーザ端末300は、映像VIDに含まれる各画像(フレーム)のタイムスタンプと人物情報PSNに含まれるタイムスタンプに基づいて、画像と人物情報PSNを時間的に対応付ける。画像内の秘匿対象人物TXの画像内位置情報は、人物情報PSNから得られる。よって、ユーザ端末300は、画像内において秘匿対象人物TXを秘匿化するように画像処理を行うことができる。例えば、人物情報PSNに姿勢情報が含まれる場合、ユーザ端末300は、その姿勢情報に基づいて秘匿対象人物PSNの顔の位置まで特定し、秘匿対象人物PSNの顔の部分をマスクしてもよい。他の例として、ユーザ端末300は、秘匿対象人物TXの位置(バウンディングボックス)全体をマスクしてもよい。尚、表示対象人物TDはマスクする必要はない。
そして、ユーザ端末300は、画像処理後の映像VID’を表示装置に表示する。表示対象人物TDが映る映像VIDが切り替わった場合、ユーザ端末300は、それに連動して表示する映像VID’を切り替える。
3-2.第2の例
ユーザは、ユーザインタフェース330(入力装置)を用いて、カメラを指定する。ユーザ端末300は、指定されたカメラのカメラIDを含むリクエストを人物情報管理システム200に送信する。人物情報管理システム200は、人物データベース230から指定されたカメラIDを含む人物情報PSNを取得し、取得した人物情報PSNをユーザ端末300に送信する。また、ユーザ端末300は、上記の第1の例の場合と同様に、カメラIDに対応するカメラCAMによって撮影された映像VIDを取得する。
ユーザは、ユーザインタフェース330(入力装置)を用いて、カメラを指定する。ユーザ端末300は、指定されたカメラのカメラIDを含むリクエストを人物情報管理システム200に送信する。人物情報管理システム200は、人物データベース230から指定されたカメラIDを含む人物情報PSNを取得し、取得した人物情報PSNをユーザ端末300に送信する。また、ユーザ端末300は、上記の第1の例の場合と同様に、カメラIDに対応するカメラCAMによって撮影された映像VIDを取得する。
第2の例では、表示対象人物TDが特に指定されないため、映像VIDに映る全ての人物が秘匿対象人物TXとなる。ユーザ端末300は、上記の第1の例の場合と同様に、秘匿対象人物TXを秘匿化するように映像VIDに対して画像処理を行う。そして、ユーザ端末300は、画像処理後の映像VID’を表示装置に表示する。
3-3.第3の例
上述の第1の例と第2の例の組み合わせも可能である。その場合、ユーザは、カメラと表示対象人物TDを指定する。
上述の第1の例と第2の例の組み合わせも可能である。その場合、ユーザは、カメラと表示対象人物TDを指定する。
3-4.第4の例
上述の通り、人物情報管理システム200は、様々な処理を落として人物情報PSNを取得する。よって、人物情報PSNのサンプリングレート(取得レート)が映像VIDのフレームレートより低くなる可能性がある。例えば、映像VIDのフレームレートが30FPSであるのに対し、人物情報PSNのサンプリングレートが10FPSとなる可能性がある。
上述の通り、人物情報管理システム200は、様々な処理を落として人物情報PSNを取得する。よって、人物情報PSNのサンプリングレート(取得レート)が映像VIDのフレームレートより低くなる可能性がある。例えば、映像VIDのフレームレートが30FPSであるのに対し、人物情報PSNのサンプリングレートが10FPSとなる可能性がある。
例えば、図5において、映像VIDはフレームFR1~FR10を含んでいる。フレームFR1~FR10のタイムスタンプはそれぞれts1~ts10である。一方、人物情報PSNは、タイムスタンプts1、ts4、ts7、ts10のものしか得られてない。このような場合においても、人物情報PSNに基づく秘匿化処理を正確に行うことが望まれる。
そこで、ユーザ端末300は、映像VIDを構成するフレームFR1~FR10の中から、人物情報PSNのタイムスタンプに対応したフレームFR1、FR4、FR7、FR10を選択する。そして、ユーザ端末300は、選択したフレームFR1、FR4、FR7、FR10に対して画像処理を選択的に行う。その後、ユーザ端末300は、画像処理後のフレームFR1、FR4、FR7、FR10を選択的に表示装置に表示する。残りのフレームは表示されない。表示される映像VID’のフレームレートは低下するが、秘匿対象人物TXの秘匿化は高精度に行われる。すなわち、秘匿対象人物TXのプライバシーが適切に守られる。
4.変形例
ユーザ端末300による処理の一部が人物情報管理システム200によって実行されてもよい。例えば、人物情報管理システム200は、ユーザ毎に画像処理を行い、各ユーザ用の画像処理後の映像VID’を生成し、画像処理後の映像VID’を当該ユーザのユーザ端末300に送信してもよい。これによっても、上述の実施の形態と同様の効果が得られる。
ユーザ端末300による処理の一部が人物情報管理システム200によって実行されてもよい。例えば、人物情報管理システム200は、ユーザ毎に画像処理を行い、各ユーザ用の画像処理後の映像VID’を生成し、画像処理後の映像VID’を当該ユーザのユーザ端末300に送信してもよい。これによっても、上述の実施の形態と同様の効果が得られる。
10…映像提供システム, 100…映像管理システム, 200…人物情報管理システム, 300…ユーザ端末, PSN…人物情報, TD…表示対象人物, TX…秘匿対象人物, VID…映像
Claims (5)
- ユーザに映像を提供する映像提供システムであって、
1又は複数のプロセッサを備え、
秘匿対象人物は、前記ユーザが見ることを望む表示対象人物以外の人物であり、
前記1又は複数のプロセッサは、
1又は複数のカメラによって撮影される1又は複数の映像を取得し、
人物再同定処理を行うことによって、前記1又は複数の映像に映っている各人物を追跡して、前記1又は複数の映像における前記各人物の位置情報を含む人物情報を取得し、
前記人物情報に基づいて、前記表示対象人物を秘匿化することなく前記秘匿対象人物を秘匿化するように、前記1又は複数の映像に対して画像処理を行い、
前記画像処理の後の前記1又は複数の映像を前記ユーザのユーザ端末に表示する
ように構成された
映像提供システム。 - 請求項1に記載の映像提供システムであって、
前記人物情報のサンプリングレートが前記1又は複数の映像のフレームレートよりも低い場合、前記1又は複数のプロセッサは、前記人物情報のタイムスタンプに対応したフレームを前記1又は複数の映像を構成するフレームの中から選択し、前記選択したフレームに対して前記画像処理を行い、前記画像処理の後の前記選択したフレームを選択的に前記ユーザ端末に表示する
映像提供システム。 - 請求項1又は2に記載の映像提供システムであって、
前記1又は複数のプロセッサは、更に、前記1又は複数の映像における前記各人物の姿勢を推定し、
前記人物情報は、前記各人物の前記位置情報と前記姿勢の情報を含み、
前記画像処理において、前記1又は複数のプロセッサは、前記人物情報に基づいて、前記秘匿対象人物の顔を少なくともマスクする
映像提供システム。 - 請求項1又は2に記載の映像提供システムであって、
前記1又は複数のプロセッサは、更に、顔認証処理を行うことによって、前記1又は複数の映像に映っている前記表示対象人物を特定する
映像提供システム。 - ユーザが使用するユーザ端末であって、
1又は複数のカメラによって撮影される1又は複数の映像を取得するプロセッサを備え、
人物情報管理システムは、人物再同定処理を行うことによって、前記1又は複数の映像に映っている各人物を追跡して、前記1又は複数の映像における前記各人物の位置情報を含む人物情報を取得し、
秘匿対象人物は、ユーザが見ることを望む表示対象人物以外の人物であり、
前記プロセッサは、
前記人物情報管理システムから前記人物情報を取得し、
前記人物情報に基づいて、前記表示対象人物を秘匿化することなく前記秘匿対象人物を秘匿化するように、前記1又は複数の映像に対して画像処理を行い、
前記画像処理の後の前記1又は複数の映像を表示する
ように構成された
ユーザ端末。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023075607A JP2024160515A (ja) | 2023-05-01 | 2023-05-01 | 映像提供システム及びユーザ端末 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023075607A JP2024160515A (ja) | 2023-05-01 | 2023-05-01 | 映像提供システム及びユーザ端末 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024160515A true JP2024160515A (ja) | 2024-11-14 |
Family
ID=93455257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023075607A Pending JP2024160515A (ja) | 2023-05-01 | 2023-05-01 | 映像提供システム及びユーザ端末 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024160515A (ja) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002269209A (ja) * | 2001-03-14 | 2002-09-20 | Hitachi Ltd | 託児方法,託児システム,介護サービスシステム |
JP2005512203A (ja) * | 2001-12-06 | 2005-04-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 自動的に顔にぼかしを入れる方法及び装置 |
JP2005229265A (ja) * | 2004-02-12 | 2005-08-25 | Kddi Corp | 画像暗号システム及び画像暗号方法 |
JP2008017093A (ja) * | 2006-07-05 | 2008-01-24 | Matsushita Electric Ind Co Ltd | 監視システム、監視装置及び監視方法 |
JP2012248967A (ja) * | 2011-05-25 | 2012-12-13 | Fujitsu Ltd | セキュリティ確保型リモート監視装置および方式 |
US20140023248A1 (en) * | 2012-07-20 | 2014-01-23 | Electronics And Telecommunications Research Institute | Apparatus and method for protecting privacy information based on face recognition |
JP2014042234A (ja) * | 2012-07-25 | 2014-03-06 | Panasonic Corp | 画像編集装置 |
CN110363172A (zh) * | 2019-07-22 | 2019-10-22 | 曲靖正则软件开发有限公司 | 一种视频处理方法、装置、电子设备及可读存储介质 |
JP2019186777A (ja) * | 2018-04-12 | 2019-10-24 | パナソニックIpマネジメント株式会社 | 映像処理装置、映像処理システム及び映像処理方法 |
CN111614973A (zh) * | 2019-02-26 | 2020-09-01 | 北京嘀嘀无限科技发展有限公司 | 视频打码方法、装置和电子设备 |
-
2023
- 2023-05-01 JP JP2023075607A patent/JP2024160515A/ja active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002269209A (ja) * | 2001-03-14 | 2002-09-20 | Hitachi Ltd | 託児方法,託児システム,介護サービスシステム |
JP2005512203A (ja) * | 2001-12-06 | 2005-04-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 自動的に顔にぼかしを入れる方法及び装置 |
JP2005229265A (ja) * | 2004-02-12 | 2005-08-25 | Kddi Corp | 画像暗号システム及び画像暗号方法 |
JP2008017093A (ja) * | 2006-07-05 | 2008-01-24 | Matsushita Electric Ind Co Ltd | 監視システム、監視装置及び監視方法 |
JP2012248967A (ja) * | 2011-05-25 | 2012-12-13 | Fujitsu Ltd | セキュリティ確保型リモート監視装置および方式 |
US20140023248A1 (en) * | 2012-07-20 | 2014-01-23 | Electronics And Telecommunications Research Institute | Apparatus and method for protecting privacy information based on face recognition |
JP2014042234A (ja) * | 2012-07-25 | 2014-03-06 | Panasonic Corp | 画像編集装置 |
JP2019186777A (ja) * | 2018-04-12 | 2019-10-24 | パナソニックIpマネジメント株式会社 | 映像処理装置、映像処理システム及び映像処理方法 |
CN111614973A (zh) * | 2019-02-26 | 2020-09-01 | 北京嘀嘀无限科技发展有限公司 | 视频打码方法、装置和电子设备 |
CN110363172A (zh) * | 2019-07-22 | 2019-10-22 | 曲靖正则软件开发有限公司 | 一种视频处理方法、装置、电子设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11037300B2 (en) | Monitoring system | |
US7680295B2 (en) | Hand-gesture based interface apparatus | |
US9323982B2 (en) | Display apparatus for performing user certification and method thereof | |
Chen et al. | Tools for protecting the privacy of specific individuals in video | |
US9443144B2 (en) | Methods and systems for measuring group behavior | |
US20130169530A1 (en) | Human eye controlled computer mouse interface | |
WO2011111129A1 (ja) | 画像検索装置 | |
US10445587B2 (en) | Device and method for automatic monitoring and autonomic response | |
HK1222247A1 (zh) | 一种影像识别系统及方法 | |
TW201401186A (zh) | 人臉判斷系統以及方法 | |
CN109918989A (zh) | 监控画面中人物行为类型识别方法、装置、介质和设备 | |
US9361705B2 (en) | Methods and systems for measuring group behavior | |
KR20140114832A (ko) | 사용자 인식 방법 및 장치 | |
JP2024138974A (ja) | 監視装置 | |
US20130265421A1 (en) | System and method for object detection | |
CN113052097A (zh) | 一种人体坐姿实时监测系统以及监测方法 | |
CN114267083A (zh) | 一种防护服穿戴规范检查判定方法及系统 | |
Boháček et al. | Protecting President Zelenskyy against deep fakes | |
US20180197000A1 (en) | Image processing device and image processing system | |
JP2024160515A (ja) | 映像提供システム及びユーザ端末 | |
Atrey et al. | Effective multimedia surveillance using a human-centric approach | |
JP2022117096A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN112468867A (zh) | 视频数据的处理方法、处理装置、电子设备和存储介质 | |
JP7638857B2 (ja) | 監視システム | |
WO2023242874A1 (en) | Device, system and method to recognize security threats from surroundings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250513 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250729 |