[go: up one dir, main page]

JP2025070770A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2025070770A
JP2025070770A JP2023181301A JP2023181301A JP2025070770A JP 2025070770 A JP2025070770 A JP 2025070770A JP 2023181301 A JP2023181301 A JP 2023181301A JP 2023181301 A JP2023181301 A JP 2023181301A JP 2025070770 A JP2025070770 A JP 2025070770A
Authority
JP
Japan
Prior art keywords
information processing
person
video
processing device
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023181301A
Other languages
Japanese (ja)
Inventor
和希 北山
Kazuki Kitayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2023181301A priority Critical patent/JP2025070770A/en
Publication of JP2025070770A publication Critical patent/JP2025070770A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To efficiently classify whether a person who appears in a video is to be pixelated or not even with a video in which many persons appear.SOLUTION: An information processing apparatus according to the present invention comprises: acquisition means for acquiring a video; detection means for detecting persons in the video; calculation means for calculating a score on the basis of an appearance frequency in the video for each of the detected persons; and classification means for classifying whether the person is to be subjected to processing or not depending on a result of comparison between the score and a predetermined value for each of the detected persons.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理装置に関する。 The present invention relates to an information processing device.

プライバシー配慮の観点から、画像に写っている人物を特定できないように加工する処理を行う技術がある。特許文献1には、撮影された人すべてに、顔による個人の特定が常に完全に不可能となる顔マスク処理をすることが可能な監視カメラが記載されている。さらに、特許文献2には、画像中のすべての人物にマスク処理がなされている状態で、カバンの置き去りなどの事象を検知すると、検知された事象に関連する人物(監視対象の物体)のみマスク処理が行われない状態で表示される画像処理装置が記載されている。この画像処理装置は、監視対象の物体をクライアントにおいて特定可能とする。 From the viewpoint of privacy considerations, there is technology that processes images so that people appearing in the image cannot be identified. Patent Document 1 describes a surveillance camera that can apply face masking to all photographed people, making it completely impossible to identify individuals by their faces at all times. Furthermore, Patent Document 2 describes an image processing device that, when all people in an image have been masked and an event such as an abandoned bag is detected, only the person associated with the detected event (the monitored object) is displayed without being masked. This image processing device makes it possible for the monitored object to be identified at the client.

特開2020-174336号公報JP 2020-174336 A 特開2011-91705号公報JP 2011-91705 A

上述の通り、特許文献2では、カバンの置き去りなどの事象が検知されたことをきっかけに、特定の人物についてマスク処理されている状態からマスク処理されていない状態へ変更する。この事象には、物体の置き去りの他に、持ち去り、出現、消失などが含まれる。このような事象が検知されない限り、特定の人物についてのマスク処理の解除が行われない。 As mentioned above, in Patent Document 2, when an event such as a bag being left behind is detected, the state of a specific person is changed from being masked to being unmasked. Events include not only leaving an object behind, but also taking it away, appearing, disappearing, etc. As long as such an event is not detected, the masking of the specific person is not removed.

そのため、例えば、上記のような事象が検知されにくい、保育園のお遊戯会で子供が演技を披露している場面を撮影している動画では、自分の子供のみマスク処理を解除したくても、解除することはできない。そうすると、動画において自分の子供のみマスク処理を解除するという編集を行わなければならない。 For example, in a video of a child performing at a nursery school play, where the above-mentioned phenomenon is difficult to detect, you cannot remove the masking from just your child, even if you want to. This means that you have to edit the video to remove the masking from just your child.

しかし、お遊戯会のように多くの人物が登場する場合に、登場するすべての子供にマスク処理されている状態では、一人一人マスク処理を外して自分の子供かどうかを確認する必要がある。次いで、自分の子供のみマスク処理されていない状態へと変更する作業が必要となり、手間がかかってしまう。 However, when many people appear, such as at a school play, if all the children are masked, you have to remove the masks one by one to check whether they are your children or not. Then, you have to change the settings so that only your children are unmasked, which is time-consuming.

そこで、本発明の情報処理装置は、登場人物が多い動画でも、動画に登場する人物についてモザイク対象とするか否かを効率よく分類することを目的とする。 Therefore, the information processing device of the present invention aims to efficiently classify people appearing in a video as to whether or not they should be subject to mosaic, even in videos with many characters.

上記目的を達成するために、本発明の情報処理装置は、動画を取得する取得手段と、動画から人物を検出する検出手段と、前記検出された人物ごとに、前記動画における登場頻度に基づきスコアを算出する算出手段と、前記検出された人物ごとのスコアと所定値との比較の結果に応じて、加工処理を実行する対象とするか否かを分類する分類手段、を備えることを特徴とする。 To achieve the above object, the information processing device of the present invention is characterized by comprising an acquisition means for acquiring a video, a detection means for detecting a person from the video, a calculation means for calculating a score for each of the detected people based on the frequency of appearance in the video, and a classification means for classifying whether or not each of the detected people is to be subjected to processing depending on the result of comparing the score for each of the detected people with a predetermined value.

本発明によれば、登場人物が多い動画でも、動画に登場する人物についてモザイク対象とするか否かを効率よく分類できる。 According to the present invention, even in videos with many characters, the people appearing in the video can be efficiently classified as to whether or not they should be pixelated.

本実施形態のシステム全体の構成を説明する図である。FIG. 1 is a diagram illustrating the overall configuration of a system according to an embodiment of the present invention. 本実施形態に係る電子機器102又は情報処理装置103の構成を説明するブロック図である。FIG. 1 is a block diagram illustrating a configuration of an electronic device 102 or an information processing device 103 according to the present embodiment. 本実施形態に係る撮像装置101の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an imaging device 101 according to the present embodiment. 第1実施形態に係る、情報処理装置103が動画に登場する人物についてモザイク対象であるか否かを分類する処理を説明するためのフローチャートである。10 is a flowchart illustrating processing performed by the information processing device 103 according to the first embodiment to classify people appearing in a video as to whether or not they are to be pixelated. 人物と各人物の登場日時が紐づいた人物撮影情報管理テーブルの一例である。13 is an example of a person shooting information management table in which people are linked to the appearance dates and times of each person. 人物、各人物のスコア、各人物がモザイク対象であるか否かの情報が紐づいた人物スコア情報管理テーブルの一例である。13 is an example of a person score information management table in which people, the scores of each person, and information on whether each person is a mosaic target are linked together. 動画ファイルの構成の一例である。2 is an example of a configuration of a video file. モザイク対象とする人物を変更する際に、電子機器102の表示手段に表示されるUIの一例である。13 is an example of a UI that is displayed on the display unit of the electronic device 102 when changing a person to be pixelated.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 A preferred embodiment of the present disclosure will be described in detail below with reference to the accompanying drawings. Note that in this specification and drawings, components having substantially the same functional configuration are designated by the same reference numerals to avoid redundant description.

本実施形態は、撮像装置101で撮影された動画ファイルを情報処理装置103へアップロードし、本発明のシステムを搭載した情報処理装置103にてデータ処理を実施するケースを対象としている。また、ユーザは、本発明のシステムを利用するすべての者のことを指す。 This embodiment is intended for a case in which a video file captured by an imaging device 101 is uploaded to an information processing device 103, and data processing is performed by the information processing device 103 equipped with the system of the present invention. In addition, a user refers to anyone who uses the system of the present invention.

図1は、本実施形態に係るシステム全体の構成を説明する図である。本実施形態に係るシステムは、撮像装置101、電子機器102、及び情報処理装置103を有する。 Figure 1 is a diagram illustrating the overall configuration of a system according to this embodiment. The system according to this embodiment has an imaging device 101, an electronic device 102, and an information processing device 103.

撮像装置101は、後述の情報処理装置103で処理される動画ファイルを生成するために使用される。本実施形態で用いられる動画ファイルは、フォーマットやコーデック等、特定の形式に限定されないものとする。 The imaging device 101 is used to generate a video file to be processed by the information processing device 103 described below. The video file used in this embodiment is not limited to a specific format, such as a format or codec.

電子機器102は、本発明のシステムを利用するユーザの端末機器であり、後述の情報処理装置103から通知される情報を取得するための媒体としても使用される。 The electronic device 102 is a terminal device of a user who uses the system of the present invention, and is also used as a medium for acquiring information notified from the information processing device 103 described below.

情報処理装置103は、撮像装置101で生成されてアップロードされた動画ファイルに対し、後述の動画に登場する人物がモザイク対象であるか否かを分類するためのデータ処理、及びその人物がモザイク対象であるか否かの情報の通知を実施する。 The information processing device 103 performs data processing on the video file generated by the imaging device 101 and uploaded to classify whether or not people appearing in the video (described below) are to be blurred, and notifies the user of whether or not the person is to be blurred.

撮像装置101で生成された動画ファイルは、ネットワーク104を介し、ユーザのローカル環境上から情報処理装置103へアップロードされる。ネットワーク104は、その形態によっては無線通信・有線通信を問わない。 The video file generated by the imaging device 101 is uploaded from the user's local environment to the information processing device 103 via the network 104. Depending on its form, the network 104 may be wireless or wired.

また、本発明のシステムでは、動画ファイルを情報処理装置に送信する手段は特定の形態に限定されるものではなく、ネットワークを介した通信以外の他の手段を用いてもよい。本実施形態では、動画ファイルは、撮像装置101から直接情報処理装置103にアップロードされてもよく、撮像装置101から電子機器102を介して、情報処理装置103にアップロードされてもよい。 In addition, in the system of the present invention, the means for transmitting the video file to the information processing device is not limited to a specific form, and other means than communication via a network may be used. In this embodiment, the video file may be uploaded directly from the imaging device 101 to the information processing device 103, or may be uploaded from the imaging device 101 to the information processing device 103 via the electronic device 102.

なお、ここで説明している情報処理装置はサーバの形態をとってもよいし、各サーバの機能と同様の機能を有する装置でもよい。また、各サーバの機能を集約したサーバでもよい。 The information processing device described here may take the form of a server, or may be a device having functions similar to those of each server. It may also be a server that aggregates the functions of each server.

本実施形態では、情報処理装置103からのデータ出力先として、電子機器102を一例として説明しているが、出力されるデータの形式によってはこの限りではない。情報処理装置103の出力先として、他システムのサーバ等が接続されている場合、テキストファイル形式やUIで表示されるデータの出力は必要なく、データベースなどの形式に合わせてデータが出力されてもよい。 In this embodiment, the electronic device 102 is described as an example of a destination for data output from the information processing device 103, but this is not limited to this depending on the format of the output data. If a server of another system or the like is connected as the output destination of the information processing device 103, it is not necessary to output data in text file format or displayed in a UI, and data may be output in a format such as a database.

また、本実施形態では、撮像装置101から情報処理装置103に動画ファイルをアップロードし、本発明のシステムが搭載された情報処理装置103での処理を実施している。しかしながら、本実施形態に限定するものではなく、電子機器102に本発明のシステムが搭載されるなどの形態も考えられる。 In addition, in this embodiment, a video file is uploaded from the imaging device 101 to the information processing device 103, and processing is carried out in the information processing device 103 equipped with the system of the present invention. However, this is not limited to this embodiment, and a form in which the system of the present invention is equipped in the electronic device 102 is also conceivable.

図2は、本実施形態に係る電子機器102及び情報処理装置103のそれぞれの構成例を説明するブロック図である。なお、本実施形態の電子機器102及び情報処理装置103は、それぞれ単一のコンピュータ装置で実現してもよいし、必要に応じた複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)などで接続されている。 FIG. 2 is a block diagram for explaining an example of the configuration of each of the electronic device 102 and the information processing device 103 according to this embodiment. Note that the electronic device 102 and the information processing device 103 according to this embodiment may each be realized by a single computer device, or may be realized by distributing each function to multiple computer devices as necessary. When configured with multiple computer devices, they are connected by a local area network (LAN) or the like so that they can communicate with each other.

図2に示すように、電子機器102及び情報処理装置103は、共通の構成を有する。ディスプレイ201、VRAM(Video Random Access Memory)202、BMU(ビットムーブユニット)203を有する。 As shown in FIG. 2, the electronic device 102 and the information processing device 103 have a common configuration. They have a display 201, a VRAM (Video Random Access Memory) 202, and a BMU (Bit Move Unit) 203.

また、電子機器102及び情報処理装置103は、キーボード204、PD(ポインティングデバイス)205のような入力デバイスや、CPU(Central Processing Unit)206を有する。 The electronic device 102 and the information processing device 103 also have input devices such as a keyboard 204 and a PD (pointing device) 205, and a CPU (Central Processing Unit) 206.

また、電子機器102及び情報処理装置103は、ROM(Read Only Memory)207、RAM(Random Access Memory)208、HDD(Hard Disk Drive)209を有する。 The electronic device 102 and the information processing device 103 also have a ROM (Read Only Memory) 207, a RAM (Random Access Memory) 208, and a HDD (Hard Disk Drive) 209.

さらに、電子機器102及び情報処理装置103は、記録メディアドライブ210、ネットワークI/F(NET I/F)211、バス212を有する。 Furthermore, the electronic device 102 and the information processing device 103 have a recording media drive 210, a network I/F (NET I/F) 211, and a bus 212.

ディスプレイ201には、例えば、電子機器102の管理を行う、アイコン、メッセージ、メニュー、その他のユーザインタフェース情報が表示される。ディスプレイ201は、キーボード204、及びPD205の機能を兼ねることができる。 The display 201 displays, for example, icons, messages, menus, and other user interface information for managing the electronic device 102. The display 201 can also function as the keyboard 204 and the PD 205.

VRAM202には、ディスプレイ201に表示するための画像が描画される。このVRAM202で生成された画像データは、所定の規定に従ってディスプレイ201に転送され、これによりディスプレイ201に画像が表示される。 Images to be displayed on the display 201 are drawn in the VRAM 202. The image data generated in the VRAM 202 is transferred to the display 201 according to a predetermined rule, and the image is displayed on the display 201.

BMU203は、例えば、メモリ間(例えば、VRAM202と他のメモリとの間)のデータ転送や、メモリと各I/Oデバイス(例えば、NET I/F211)との間のデータ転送を制御する。 The BMU 203 controls, for example, data transfer between memories (e.g., between the VRAM 202 and other memories) and data transfer between memories and each I/O device (e.g., the NET I/F 211).

キーボード204は、文字等を入力するための各種キーを有する。キーボード204は、ディスプレイ201上に表示されるソフトウェアキーボードを含む。PD205は、例えば、ディスプレイ201に表示されたアイコン、メニュー、その他のコンテンツを指示又はオブジェクトのドラッグドロップのために使用される。PD205は、ディスプレイ201に対しての指やタッチペンによる操作を含む。 The keyboard 204 has various keys for inputting characters and the like. The keyboard 204 includes a software keyboard that is displayed on the display 201. The PD 205 is used, for example, to point to icons, menus, and other content displayed on the display 201 or to drag and drop objects. The PD 205 includes operations on the display 201 using a finger or a touch pen.

CPU206は、ROM207、HDD209、又は記録メディアドライブ210に格納されたOSや応用ソフトウェア等の制御プログラムに基づいて、各デバイスを制御する。 The CPU 206 controls each device based on control programs such as the OS and application software stored in the ROM 207, HDD 209, or recording media drive 210.

ROM207は、各種制御プログラムやデータを保存する。RAM208は、CPU206のワーク領域、エラー処理時のデータの退避領域、制御プログラムのロード領域等を有する。 The ROM 207 stores various control programs and data. The RAM 208 has a work area for the CPU 206, an area for saving data during error processing, an area for loading control programs, etc.

HDD209は、電子機器102内で実行される各制御プログラムや一時保管したデータ等のデータを格納する。 The HDD 209 stores data such as the control programs executed within the electronic device 102 and temporarily stored data.

NET I/F211は、他の電子機器102やプリンタ等とネットワークを介して通信を行う。 The NET I/F 211 communicates with other electronic devices 102, printers, etc. via a network.

バス212は、アドレスバス、データバス、及びコントロールバスを含む。 Bus 212 includes an address bus, a data bus, and a control bus.

CPU206に対する制御プログラムの提供は、ROM207、HDD209、記録メディアドライブ210から行うこともできるし、NET I/F211を介してネットワーク経由で他のサーバ等から行うこともできる。 The control program can be provided to the CPU 206 from the ROM 207, HDD 209, or recording media drive 210, or from another server via the network through the NET I/F 211.

図3は、本実施形態に係る撮像装置101の構成を示すブロック図である。撮像装置101としては、例えば、撮像機能を持つデジタルカメラ300などの端末である。 Figure 3 is a block diagram showing the configuration of an imaging device 101 according to this embodiment. The imaging device 101 is, for example, a terminal such as a digital camera 300 that has an imaging function.

撮影レンズ301は、ズームレンズ及びフォーカスレンズを含む。シャッター302は、絞り機能を備える。 The photographing lens 301 includes a zoom lens and a focus lens. The shutter 302 has an aperture function.

撮像部303は、光学像を電気信号に変換するCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)素子などで構成される。 The imaging unit 303 is composed of elements such as CCD (Charge Coupled Devices) and CMOS (Complementary Metal Oxide Semiconductor) elements that convert optical images into electrical signals.

A/D変換器304は、撮像部303から入力されたアナログ画像データに対して、デジタル画像データへの変換を行う。バリア305は、撮影レンズ301などを覆うことにより、撮影レンズ301、シャッター302、撮像部303を含む撮像系の汚れや破損を防止する。 The A/D converter 304 converts the analog image data input from the imaging unit 303 into digital image data. The barrier 305 covers the photographing lens 301 and other components to prevent the imaging system, including the photographing lens 301, shutter 302, and imaging unit 303, from becoming dirty or being damaged.

画像処理部306は、A/D変換器304からの画像データ又はメモリ制御部307からの画像データに対し、所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部306は、撮像された画像データを用いて所定の演算処理を行い、システム制御部308が演算結果に基づいて露光制御、測距制御を行う。A/D変換器304から出力される画像データは、画像処理部306及びメモリ制御部307を介して、又はメモリ制御部307のみを介してメモリ309に書き込まれる。 The image processing unit 306 performs predetermined pixel interpolation, resizing such as reduction, and color conversion processing on the image data from the A/D converter 304 or the image data from the memory control unit 307. The image processing unit 306 also performs predetermined calculation processing using the captured image data, and the system control unit 308 performs exposure control and distance measurement control based on the calculation results. The image data output from the A/D converter 304 is written to the memory 309 via the image processing unit 306 and the memory control unit 307, or via only the memory control unit 307.

システム制御部308は、撮像装置101全体を制御する。システム制御部308は、不揮発性メモリ312に記憶されたプログラムを実行することで、撮像装置101の処理を実現する。 The system control unit 308 controls the entire imaging device 101. The system control unit 308 executes programs stored in the non-volatile memory 312 to realize the processing of the imaging device 101.

メモリ309は、A/D変換器304から出力される画像データや、表示部310に表示するための画像データを一時的に記録する。メモリ309は、所定枚数の静止画像や所定時間の動画像、及び音声を格納するのに十分な記憶容量を備えている。また、メモリ309は、画像表示用のメモリ(ビデオメモリ)を兼ねている。 Memory 309 temporarily records image data output from A/D converter 304 and image data to be displayed on display unit 310. Memory 309 has a storage capacity sufficient to store a predetermined number of still images, a predetermined amount of moving images, and audio. Memory 309 also serves as a memory for displaying images (video memory).

D/A変換器311は、メモリ309に格納されている画像表示用の画像データをアナログ信号に変換して表示部310に供給する。こうして、メモリ309に一時的に記憶された表示用の画像データは、D/A変換器311を介して表示部310により表示される。表示部310は、LCD(Liquid Crystal Display)等の表示器上に、D/A変換器311からのアナログ信号に応じた表示を行う。 The D/A converter 311 converts the image data for image display stored in the memory 309 into an analog signal and supplies it to the display unit 310. In this way, the image data for display temporarily stored in the memory 309 is displayed by the display unit 310 via the D/A converter 311. The display unit 310 displays an image according to the analog signal from the D/A converter 311 on a display device such as an LCD (Liquid Crystal Display).

不揮発性メモリ312は、電気的に消去・記録可能なメモリであり、例えばEEPROM(Electrically Erasable Programmable Read-Only Memory)などが用いられる。不揮発性メモリ312には、システム制御部308の動作用の定数、後述する連携を行うプログラム等の制御プログラムなどが記憶される。 The non-volatile memory 312 is an electrically erasable and recordable memory, such as an EEPROM (Electrically Erasable Programmable Read-Only Memory). The non-volatile memory 312 stores constants for the operation of the system control unit 308, control programs such as the program for performing the linkage described below, and the like.

システムメモリ313は、例えばRAMが用いられ、システム制御部308の動作用の定数、変数、不揮発性メモリ312から読み出したプログラム等を展開する。 The system memory 313 is, for example, a RAM, and expands constants and variables for the operation of the system control unit 308, programs read from the non-volatile memory 312, etc.

モード切替スイッチ314、第1シャッタースイッチ315、第2シャッタースイッチ316、及び操作部317は、システム制御部308に各種の動作指示を入力するための操作手段である。モード切替スイッチ314は、システム制御部308の動作モードを静止画記録モード、動画記録モード、再生モードなどの何れかに切り替える。 The mode changeover switch 314, the first shutter switch 315, the second shutter switch 316, and the operation unit 317 are operation means for inputting various operation instructions to the system control unit 308. The mode changeover switch 314 switches the operation mode of the system control unit 308 to one of a still image recording mode, a video recording mode, a playback mode, etc.

第1シャッタースイッチ315は、撮像装置101に設けられたシャッターボタンの操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を発生する。 The first shutter switch 315 is turned on when the shutter button provided on the imaging device 101 is pressed halfway (instruction to prepare for shooting) during operation, and generates a first shutter switch signal SW1.

第2シャッタースイッチ316は、シャッターボタンの操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部308は、第2シャッタースイッチ信号SW2により撮像部303からの信号読み出しから記録媒体325に画像データを書き込むまでの一連の撮影処理の動作を開始する。 The second shutter switch 316 is turned on when the shutter button is fully pressed (photographing instruction) and generates a second shutter switch signal SW2. The system control unit 308 starts a series of shooting processing operations, from reading the signal from the imaging unit 303 to writing image data to the recording medium 325, in response to the second shutter switch signal SW2.

操作部317の各操作部材は、表示部310に表示される種々の機能アイコンが選択操作されることなどにより、場面毎に適宜機能が割り当てられ各種機能ボタンとして作用する。機能ボタンとしては、例えば、確認ボタン、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタンなどがある。例えば、メニューボタンが押されると、各種の設定可能なメニュー画面が表示部310に表示される。ユーザは、表示部310に表示されたメニュー画面と、4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。 The operating members of the operating unit 317 act as various function buttons, with appropriate functions assigned for each situation, for example by selecting and operating various function icons displayed on the display unit 310. Function buttons include, for example, a confirmation button, an end button, a back button, an image forward button, a jump button, a filter button, and an attribute change button. For example, when the menu button is pressed, a menu screen in which various settings can be made is displayed on the display unit 310. The user can intuitively make various settings using the menu screen displayed on the display unit 310, the four-way button, and the SET button.

コントローラホイール318は、操作部317に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示するとき等に用いられる。システム制御部308は、パルス信号に基づいて撮像装置101の各構成部を制御する。 The controller wheel 318 is a rotatable operating member included in the operating unit 317, and is used together with the directional buttons to indicate a selection item, etc. The system control unit 308 controls each component of the imaging device 101 based on the pulse signal.

また、システム制御部308はパルス信号によってコントローラホイール318が回転操作された角度や、何回転したかなどを判定することができる。なお、コントローラホイール318は、回転操作が検出できる操作部材であればどのようなものでもよい。 The system control unit 308 can also use the pulse signal to determine the angle at which the controller wheel 318 has been rotated and how many times it has rotated. The controller wheel 318 can be any operating member that can detect a rotation operation.

コントローラリング319は、操作部317に含まれる回転操作部材であり、レンズ鏡筒周りで光軸を中心として回転する操作が可能である。例えば、コントローラリング319を操作することで回転量(操作量)に応じた電気的なパルス信号が発生する。システム制御部308は、パルス信号に基づいて撮像装置101の各構成部を制御する。また、操作部317に含まれるコントローラリング319の機能切替ボタンが押されると、コントローラリング319に割り当てる機能を変更可能なメニュー画面が表示部310に表示される。コントローラリング319及びコントローラホイール318は、通常モード項目の選択や値の変更に用いられる。 The controller ring 319 is a rotary operation member included in the operation unit 317, and can be operated to rotate around the optical axis around the lens barrel. For example, operating the controller ring 319 generates an electrical pulse signal corresponding to the amount of rotation (amount of operation). The system control unit 308 controls each component of the imaging device 101 based on the pulse signal. In addition, when a function switching button on the controller ring 319 included in the operation unit 317 is pressed, a menu screen that allows the function assigned to the controller ring 319 to be changed is displayed on the display unit 310. The controller ring 319 and controller wheel 318 are normally used to select mode items and change values.

電源スイッチ320は、電源のオンオフが切り替えられる。 The power switch 320 turns the power on and off.

電源制御部321は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成される。電源制御部321は、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部321は、検出結果及びシステム制御部308の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体325を含む各構成部へ供給する。 The power supply control unit 321 is composed of a battery detection circuit, a DC-DC converter, a switch circuit that switches between blocks to which electricity is applied, and the like. The power supply control unit 321 detects whether a battery is installed, the type of battery, and the remaining battery power. The power supply control unit 321 also controls the DC-DC converter based on the detection results and instructions from the system control unit 308, and supplies the necessary voltage for the necessary period to each component, including the recording medium 325.

電源部322は、アルカリ電池やリチウム電池等の一次電池、NiCd電池、NiMH電池、Li電池等の二次電池、ACアダプター等で構成される。 The power supply unit 322 is composed of a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, etc.

通信部323は、記録媒体325に記憶された画像を外部機器に送信する。 The communication unit 323 transmits images stored in the recording medium 325 to an external device.

I/F324は、記録媒体325とのインタフェースであり、記録媒体325は、半導体メモリや磁気ディスク等で構成される。 I/F 324 is an interface with recording medium 325, which is composed of a semiconductor memory, a magnetic disk, etc.

NET I/F326は、ネットワークI/Fであり、システム制御部308により制御されネットワークを介して通信を行う。このネットワークを介した通信で、電子機器102と通信を行うことができる。 The NET I/F 326 is a network I/F that is controlled by the system control unit 308 and communicates via a network. Through communication via this network, communication with the electronic device 102 can be performed.

なお、図3は、一般的な撮像装置の一例であり、シャッター302、モード切替スイッチ314、表示部310などは、撮像装置101では必ずしも必要ではない。 Note that FIG. 3 shows an example of a typical imaging device, and the shutter 302, mode switch 314, display unit 310, etc. are not necessarily required for the imaging device 101.

(第1実施形態)
図4は、第1実施形態に係る、情報処理装置103が動画に登場する人物についてモザイク対象であるか否かを分類する処理を説明するためのフローチャートである。
First Embodiment
FIG. 4 is a flowchart illustrating processing performed by the information processing device 103 according to the first embodiment to classify people appearing in a moving image as to whether or not they are to be pixelated.

S401では、情報処理装置103は、撮像装置101又は電子機器102から送信された動画ファイルを受信する。ここでは前述の通り、情報処理装置103へ動画ファイルを送信する手段は、特定の形態に限定されるものではない。 In S401, the information processing device 103 receives a video file transmitted from the imaging device 101 or the electronic device 102. As described above, the means for transmitting the video file to the information processing device 103 is not limited to a specific form.

S402では、情報処理装置103は、初期値として、変数Nに受信した動画ファイルの総数を代入し、変数iに“0”を代入する。 In S402, the information processing device 103 assigns the total number of received video files to the variable N as an initial value, and assigns "0" to the variable i.

S403では、情報処理装置103は、i番目の動画ファイルを取得して、内部に保存する。 In S403, the information processing device 103 acquires the i-th video file and stores it internally.

S404では、情報処理装置103は、i番目の動画ファイル内の動画データを解析し、動画に登場する人物の情報を取得する。 In S404, the information processing device 103 analyzes the video data in the i-th video file and obtains information about people appearing in the video.

S405では、情報処理装置103は、動画ファイル内の撮影情報から、動画に登場する人物の登場日時を取得する。図7は、動画ファイルの構成の一例である。1つの動画ファイル700には、撮影情報702と動画データ703が含まれる。 In S405, the information processing device 103 acquires the appearance date and time of people appearing in the video from the shooting information in the video file. FIG. 7 shows an example of the configuration of a video file. One video file 700 includes shooting information 702 and video data 703.

撮影情報702は、撮像装置100で管理している動画データに関連する撮影情報であり、具体的には、動画の撮影日時や動画に登場する人物の登場日時などの情報が保存されている。動画ファイルにおいて撮影情報が含まれない場合は、電子機器102から動画ファイルを受信する日時を動画の撮影日時として登録してもよい。その場合、各人物が登場する日時も動画ファイルを受信する日時となるが、その動画に繰り返し登場する人物がいると、その人物は同一撮影日時で複数回登場していることとなる。 Shooting information 702 is shooting information related to video data managed by imaging device 100, and specifically, information such as the shooting date and time of the video and the appearance date and time of people appearing in the video is stored. If shooting information is not included in the video file, the date and time of receiving the video file from electronic device 102 may be registered as the shooting date and time of the video. In that case, the date and time of each person's appearance will also be the date and time of receiving the video file, but if a person appears repeatedly in the video, that person will appear multiple times at the same shooting date and time.

したがって、その人物について後述するスコアに偏りが発生する場合が考えられるため、その人物は、その撮影日時では1回の登場として登録する。本実施形態では、S405で取得する動画に登場する人物の登場日時の情報は、動画ファイルの撮影情報702から取得する。 Therefore, since there may be a bias in the score for that person, which will be described later, the person is registered as having appeared once for that shooting date and time. In this embodiment, information on the appearance date and time of the person appearing in the video obtained in S405 is obtained from the shooting information 702 of the video file.

S406では、情報処理装置103は、動画に登場する人物と、その人物の登場日時が紐づいた情報を、人物撮影情報管理テーブルとして保存する。図5は、人物と各人物の登場日時が紐づいた人物撮影情報管理テーブルの一例である。 In S406, the information processing device 103 stores information linking people appearing in the video with the dates and times of appearance of the people as a person shooting information management table. Figure 5 shows an example of a person shooting information management table linking people with the dates and times of appearance of each person.

図5では、人物撮影情報管理テーブルとして、i番目の動画ファイルの人物撮影情報テーブル1と、i番目よりも過去の動画ファイルの人物撮影情報テーブル2がある。各テーブルは、人物501又は503と各人物の登場日時502又は504に関する情報を含む。人物501又は503は、S404で動画データの解析により取得した人物について、人物A、B、C、Dの分類コードで示す。この分類コードは、動画データの解析により取得した人物毎に一意になる値、文字などを自動で設定したものである。 In FIG. 5, there are person shooting information management tables, namely, person shooting information table 1 for the i-th video file, and person shooting information table 2 for video files older than the i-th video file. Each table includes information on person 501 or 503 and appearance date and time 502 or 504 of each person. Person 501 or 503 indicates the person obtained by analyzing the video data in S404 with a classification code of person A, B, C, or D. This classification code is a value, character, etc. that is automatically set to be unique for each person obtained by analyzing the video data.

S407では、i番目の動画ファイルの人物撮影情報テーブル1に基づき、動画に登場する人物のスコア1の値を算出する。例えば、1つの動画ファイル内で、人物Bは、人物A、C、Dよりも登場頻度が高い(図5)。そのため、人物Bのスコア1の値は、人物A、C、Dよりも高くする。 In S407, the score 1 value of the person appearing in the video is calculated based on the person shooting information table 1 of the i-th video file. For example, in one video file, person B appears more frequently than persons A, C, and D (Figure 5). Therefore, the score 1 value of person B is set to be higher than those of persons A, C, and D.

S408では、情報処理装置103は、過去に保存された1以上の動画ファイルに、i番目の動画に登場する人物が登場していたか否かを判定する。情報処理装置103は、i番目の動画ファイルに関する人物撮影情報テーブル1と、i番目よりも過去に保存された動画ファイルに関する人物撮影情報テーブル2とを参照することで、判定を行う。例えば、図5の人物撮影情報テーブル2にある人物Cは、人物撮影情報テーブル1にもある。情報処理装置103が、過去に保存された1以上の動画ファイルに、i番目の動画に登場する人物が登場していたと判定する場合は、S409へ進み、そうでない場合は、S413へ進む。 In S408, the information processing device 103 determines whether or not the person appearing in the i-th video appeared in one or more previously saved video files. The information processing device 103 makes this determination by referring to person shooting information table 1 relating to the i-th video file and person shooting information table 2 relating to video files saved before the i-th video file. For example, person C in person shooting information table 2 in FIG. 5 is also in person shooting information table 1. If the information processing device 103 determines that the person appearing in the i-th video appeared in one or more previously saved video files, it proceeds to S409, and if not, it proceeds to S413.

S409では、情報処理装置103は、人物の、i番目の動画での登場日時と、過去に保存された動画での登場日時の差に基づき、スコア2の値を算出する。 In S409, the information processing device 103 calculates the value of score 2 based on the difference between the appearance date and time of the person in the i-th video and the appearance date and time in the previously saved video.

S410では、情報処理装置103は、S407で算出されたスコア1の値とS409で算出されたスコア2の値とを加算し、加算したスコアをその人物のスコアとする。 In S410, the information processing device 103 adds the value of score 1 calculated in S407 and the value of score 2 calculated in S409, and sets the sum as the person's score.

i番目の動画に登場する人物が、過去の1つの動画内で複数回登場している場合や、その人物が過去の複数の動画で登場している場合は、算出されるスコア2の値は高くなり、結果として、その人物のスコアも高くなる。 If a person who appears in the i-th video has appeared multiple times in a past video, or if that person has appeared in multiple past videos, the calculated value of Score 2 will be higher, and as a result, the person's score will also be higher.

情報処理装置103が、過去に保存された1以上の動画ファイルに、i番目の動画に登場する人物が登場していないと判定した場合、S411では、情報処理装置103は、S407で算出されたスコア1の値をその人物のスコアとする。 If the information processing device 103 determines that a person appearing in the i-th video does not appear in one or more previously saved video files, in S411, the information processing device 103 sets the value of score 1 calculated in S407 as the score for that person.

スコア1の値の算出方法としては、登場頻度の他にも以下の条件でスコアを高く算出してもよい。算出方法は限らない。動画内で特定の人物の発言頻度が多い場合や動画内で特定の人物の発言時間が動画全体の時間に対して割合が大きい場合に、それらの人物を他の人物よりもスコアを高く算出してもよい。さらに、動画の1コマ内の画面領域にて一定以上の領域を特定の人物が占め続けている場合に、それらの人物を他の人物よりもスコアを高く算出してもよい。 In addition to frequency of appearance, the method of calculating the value of Score 1 may also be to calculate a higher score under the following conditions. The calculation method is not limited. If a particular person speaks frequently in a video or if the time that a particular person speaks in a video accounts for a large proportion of the total video time, the score for that person may be calculated to be higher than that of other people. Furthermore, if a particular person continues to occupy a certain amount or more of the screen area in one frame of the video, the score for that person may be calculated to be higher than that of other people.

S412では、情報処理装置103は、iをi+1とし、S413に進む。 In S412, the information processing device 103 sets i to i+1 and proceeds to S413.

S413では、情報処理装置103は、i>Nであるか否かを判定する。情報処理装置103が、i>Nであると判定すると、S414に進み、i>Nでないと判定すると、S403へ戻る。 In S413, the information processing device 103 determines whether i>N. If the information processing device 103 determines that i>N, it proceeds to S414, and if it determines that i>N is not true, it returns to S403.

S414では、情報処理装置103は、動画に登場する人物の情報とスコアが紐づいた情報を、人物スコア情報管理テーブルとして保存する。図6は、人物情報601、各人物のスコア602、各人物がモザイク対象であるか否かの情報603が紐づいた人物スコア情報管理テーブルの一例である。図5の人物撮影情報テーブルでは、登場頻度の高い人物から順に、人物D、人物C、人物B、人物Aとなっており、図6の人物スコア情報管理テーブルでは、スコア602が高い人物から順に、人物D、人物C、人物B、人物Aとなっている。このように、登場頻度が高ければ高いほど、スコアは高くなる。 In S414, the information processing device 103 saves information linking information about people appearing in the video with their scores as a person score information management table. FIG. 6 is an example of a person score information management table linking person information 601, each person's score 602, and information 603 about whether each person is a subject to be pixelated. In the person shooting information table of FIG. 5, the people appearing most frequently are Person D, Person C, Person B, and Person A, while in the person score information management table of FIG. 6, the people appearing most frequently are Person D, Person C, Person B, and Person A, respectively. In this way, the higher the appearance frequency, the higher the score.

S415では、情報処理装置103は、動画ファイルのみ電子機器102へ送信する。 In S415, the information processing device 103 transmits only the video file to the electronic device 102.

S416では、情報処理装置103は、人物スコア情報管理テーブルにおける各人物のスコアに基づき、スコアの境界値の初期値を自動で設定する。例えば、スコアの平均値を境界値の初期値として設定する。あるいは、モザイク対象でない人物の人数が所定の人数となるように境界値の初期値を設定してもよい。所定の人数はユーザが手動で設定してもよいし、情報処理装置103が所定の人数をあらかじめ設定してもよい。 In S416, the information processing device 103 automatically sets an initial score boundary value based on the score of each person in the person score information management table. For example, the average score is set as the initial boundary value. Alternatively, the initial boundary value may be set so that the number of people who are not to be pixelated is a predetermined number. The predetermined number may be set manually by the user, or the information processing device 103 may set the predetermined number in advance.

S417では、情報処理装置103は、動画に登場する人物ごとに、人物撮影情報管理テーブルを参照し、そのスコアと境界値を比較する。比較の結果、スコアが境界値以上の人物をモザイク対象でない人物とし、スコアが境界値未満の人物をモザイク対象の人物として自動で分類する。すなわち、登場人物は、そのスコアが高いほど、モザイク対象になりにくく、そのスコアが低いほど、モザイク対象になりやすい。 In S417, the information processing device 103 refers to the person shooting information management table for each person appearing in the video and compares the score with the boundary value. As a result of the comparison, people whose scores are equal to or greater than the boundary value are automatically classified as people who should not be mosaiced, and people whose scores are less than the boundary value are automatically classified as people who should be mosaiced. In other words, the higher the score of a character, the less likely they are to be mosaiced, and the lower the score, the more likely they are to be mosaiced.

S418では、情報処理装置103は、分類結果を電子機器102へ通知する。具体的には、情報処理装置103は、動画データから人物を抽出し、モザイク対象であると分類された人物の領域に対してモザイク処理を適用し、加工済み動画データを生成し、電子機器102へ送信する。電子機器102が加工済み動画データを受信し、表示手段に表示再生することで、ユーザはモザイク対象でない人物を確認することができる。 In S418, the information processing device 103 notifies the electronic device 102 of the classification result. Specifically, the information processing device 103 extracts people from the video data, applies mosaic processing to the areas of people classified as subjects to be mosaiced, generates processed video data, and transmits it to the electronic device 102. The electronic device 102 receives the processed video data and displays and plays it on a display means, allowing the user to confirm people that are not subjects to be mosaiced.

そして、情報処理装置103は加工済み動画データとともに、UIも電子機器102へ送信する。電子機器102は加工済み動画データを表示再生しながら、UIも画面に表示する。ユーザは、モザイク対象でない人物やモザイク対象の人物が意図通りでない場合、UIを用いて変更することができる。 Then, the information processing device 103 transmits the UI to the electronic device 102 together with the processed video data. The electronic device 102 displays the UI on the screen while displaying and playing back the processed video data. If the user does not want to pixelate a person or if the person to pixelate is not as intended, the user can use the UI to change it.

図8は、電子機器102の表示手段に表示されるUIの一例である。電子機器102の表示手段には、スコアの最小値801及び最大値802が表示される。スコアの最小値801及び最大値802は、各人物のスコアが全て含まれる範囲となるように自動で設定される。 Figure 8 is an example of a UI displayed on the display means of the electronic device 102. A minimum score value 801 and a maximum score value 802 are displayed on the display means of the electronic device 102. The minimum score value 801 and the maximum score value 802 are automatically set to be within a range that includes all of the scores of each person.

電子機器102の表示手段には、さらに、現在の境界値を示すスライダー805が表示される。境界値よりもスコアの高い人物は、モザイク対象でない人物804とされ、境界値よりもスコアの低い人物は、モザイク対象である人物803とされている。 The display means of the electronic device 102 further displays a slider 805 indicating the current boundary value. A person with a score higher than the boundary value is determined to be a person 804 who is not to be pixelated, and a person with a score lower than the boundary value is determined to be a person 803 who is to be pixelated.

モザイク対象である人物またはモザイク対象ではない人物がユーザの意図した結果になっていない場合、ユーザは電子機器102を操作してスライダー805を移動することで、スコアの境界値を変更するよう指示する。これにより、モザイク対象である人物・モザイク対象でない人物を一括で変更することができる。このように、ユーザは、全ての人物について一人ずつモザイクを外して確認したり、モザイクを適用するように設定したりする手間が減り、効率良く、所望の人物にはモザイクをかけることなく、それ以外の人物にはモザイクをかけるようにすることができる。 If the person to be pixelated or the person not to be pixelated does not match the user's intention, the user operates the electronic device 102 to move the slider 805 to instruct the score boundary value to be changed. This makes it possible to change the people to be pixelated and the people not to be pixelated all at once. In this way, the user can reduce the effort of removing the pixelation from each person and checking them or setting the application of the pixelation, and can efficiently pixelate the desired person without pixelating the other people.

S419では、情報処理装置103は、電子機器102からスコアの境界値を変更する指示があるか否かを判定する。電子機器102からスコアの境界値を変更する指示があると判定された場合、S417へ戻り、再度新たな境界値に基づいて、モザイク対象である人物とモザイク対象でない人物とを分類する。電子機器102からスコアの境界値を変更する指示がないと判定された場合、S420へ進む。 In S419, the information processing device 103 determines whether or not there is an instruction from the electronic device 102 to change the score boundary value. If it is determined that there is an instruction from the electronic device 102 to change the score boundary value, the process returns to S417, and the person is classified again into a person to be pixelated and a person to be not pixelated based on the new boundary value. If it is determined that there is no instruction from the electronic device 102 to change the score boundary value, the process proceeds to S420.

S420では、情報処理装置103は、分類結果を確定し、モザイク対象の人物が検出された領域にモザイク処理を実行し、モザイク処理を適用した動画データを含む動画ファイルを生成し、電子機器102へ送信する。 In S420, the information processing device 103 confirms the classification result, performs mosaic processing on the area in which the person to be mosaicked is detected, generates a video file including the video data to which the mosaic processing has been applied, and transmits the file to the electronic device 102.

なお、特定の人物について、スコアに関わらず、モザイク対象か否かの設定を個別に行えるようにしてもよい。 In addition, it may be possible to set whether or not a particular person should be pixelated, regardless of the score.

動画ファイルとモザイク対象でない人物に関する情報の送信先である情報処理装置103では、モザイク処理の代わりにアイコン、画像、黒塗り等で顔を隠してもよい。 In the information processing device 103, which is the destination of the video file and information about the person not to be pixelated, the face may be hidden with an icon, image, blacked out, etc. instead of pixelating.

(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.

なお、本実施形態の開示は、以下の構成及び方法を含む。 The disclosure of this embodiment includes the following configurations and methods.

(構成1)
情報処理装置であって、
動画を取得する取得手段と、
動画から人物を検出する検出手段と、
前記検出された人物ごとに、前記動画における登場頻度に基づきスコアを算出する算出手段と、
前記検出された人物ごとのスコアと所定値との比較の結果に応じて、加工処理を実行する対象とするか否かを分類する分類手段、
を備えることを特徴とする情報処理装置。
(Configuration 1)
An information processing device,
An acquisition means for acquiring a video;
A detection means for detecting a person from a video;
A calculation means for calculating a score for each of the detected persons based on the frequency of appearance of the person in the video;
A classification means for classifying whether or not a processing process is to be performed on each of the detected persons according to a result of comparing the score of each of the detected persons with a predetermined value;
An information processing device comprising:

(構成2)
前記登場頻度は、前記検出された人物の、前記動画における登場間隔及び登場回数に基づく値であることを特徴とする構成1に記載の情報処理装置。
(Configuration 2)
2. The information processing apparatus according to configuration 1, wherein the appearance frequency is a value based on an appearance interval and an appearance count of the detected person in the video.

(構成3)
前記取得手段が前記動画として撮影日時が古いほうから順に第1動画及び第2動画を取得し、
前記検出手段が前記第2動画から前記人物を検出する場合、
前記算出手段は、前記検出された人物ごとに、前記第1動画及び前記第2動画における前記登場頻度に基づきスコアを算出することを特徴とする構成1又は2に記載の情報処理装置。
(Configuration 3)
the acquiring means acquires, as the moving images, a first moving image and a second moving image in order from the oldest captured moving image to the newest captured moving image,
When the detection means detects the person from the second video,
3. The information processing device according to configuration 1 or 2, wherein the calculation means calculates a score for each of the detected persons based on the appearance frequency in the first video and the second video.

(構成4)
前記情報処理装置は、さらに、
前記検出された人物ごとのスコアに基づき前記所定値を設定する設定手段を有し、
前記分類手段は、前記検出された人物ごとのスコアと前記設定手段により設定された前記所定値との比較の結果に応じて、前記加工処理を実行する対象とするか否かを分類することを特徴とする構成1乃至3のいずれか1項に記載の情報処理装置。
(Configuration 4)
The information processing device further includes:
a setting means for setting the predetermined value based on the score for each of the detected persons,
The information processing device according to any one of configurations 1 to 3, characterized in that the classification means classifies whether or not the detected person is to be subjected to the processing depending on a result of a comparison between the score of each detected person and the predetermined value set by the setting means.

(構成5)
前記分類手段は、前記検出された人物ごとのスコアが前記所定値以上である人物を、前記加工処理を実行する対象として分類をし、
前記検出された人物ごとのスコアが前記所定値未満である人物を、前記加工処理を実行する対象としない分類をすることを特徴とする構成1乃至4のいずれか1項に記載の情報処理装置。
(Configuration 5)
the classification means classifies a person having a score equal to or greater than the predetermined value for each of the detected persons as a person to be subjected to the processing;
5. The information processing device according to any one of configurations 1 to 4, wherein a person whose score for each detected person is less than the predetermined value is classified as not to be subjected to the processing.

(構成6)
前記情報処理装置は、さらに、
前記分類手段により分類された結果を電子機器へ通知する通知手段
を有することを特徴とする構成1乃至5のいずれか1項に記載の情報処理装置。
(Configuration 6)
The information processing device further includes:
6. The information processing apparatus according to any one of claims 1 to 5, further comprising a notification unit that notifies an electronic device of a result of classification by the classification unit.

(構成7)
前記情報処理装置は、さらに、
前記電子機器からの前記所定値の変更の指示を受信する受信手段を有し、
前記受信手段が、前記電子機器から前記所定値の変更の指示を受信する場合、
前記設定手段は、前記電子機器からの指示に基づき、前記所定値を変更し、
前記分類手段は、前記検出された人物ごとのスコアと前記設定手段により変更された前記所定値との比較の結果に応じて、前記加工処理を実行する対象とするか否かを分類することを特徴とする構成1乃至6のいずれか1項に記載の情報処理装置。
(Configuration 7)
The information processing device further includes:
a receiving means for receiving an instruction to change the predetermined value from the electronic device;
When the receiving means receives an instruction to change the predetermined value from the electronic device,
The setting means changes the predetermined value based on an instruction from the electronic device,
The information processing device according to any one of configurations 1 to 6, characterized in that the classification means classifies whether or not to perform the processing on each of the detected persons depending on a result of a comparison between the score of each of the detected persons and the predetermined value changed by the setting means.

(構成8)
前記情報処理装置は、さらに、
前記動画のうち、前記加工処理を実行する対象とすると分類された人物が検出された領域に対して、前記加工処理を実行する処理手段を有することを特徴とする構成1乃至7のいずれか1項に記載の情報処理装置。
(Configuration 8)
The information processing device further includes:
The information processing device according to any one of configurations 1 to 7, further comprising a processing means for executing the processing on an area of the video in which a person classified as a subject to be subjected to the processing is detected.

(構成9)
動画を取得する取得ステップと、
動画から人物を検出する検出ステップと、
前記検出された人物ごとに、前記動画における登場頻度に基づきスコアを算出する算出ステップと、
前記検出された人物ごとのスコアと所定値との比較の結果に応じて、加工処理を実行する対象とするか否かを分類する分類ステップ、
を備えることを特徴とする情報処理装置の制御方法。
(Configuration 9)
An acquisition step of acquiring a video;
A detection step of detecting a person from a video;
A calculation step of calculating a score for each of the detected persons based on the frequency of appearance of the person in the video;
a classification step of classifying whether or not a processing process is to be performed on each of the detected persons according to a result of comparing the score of each of the detected persons with a predetermined value;
13. A method for controlling an information processing device, comprising:

(構成10)
コンピュータに構成9に記載の情報処理装置の制御方法を実行させるためのプログラム。
(Configuration 10)
10. A program for causing a computer to execute the method for controlling an information processing device according to aspect 9.

(構成11)
コンピュータに構成9に記載の情報処理装置の制御方法を実行させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体。
(Configuration 11)
10. A computer-readable recording medium having recorded thereon a program for causing a computer to execute the method for controlling an information processing device according to configuration 9.

Claims (11)

情報処理装置であって、
動画を取得する取得手段と、
動画から人物を検出する検出手段と、
前記検出された人物ごとに、前記動画における登場頻度に基づきスコアを算出する算出手段と、
前記検出された人物ごとのスコアと所定値との比較の結果に応じて、加工処理を実行する対象とするか否かを分類する分類手段、
を備えることを特徴とする情報処理装置。
An information processing device,
An acquisition means for acquiring a video;
A detection means for detecting a person from a video;
A calculation means for calculating a score for each of the detected persons based on the frequency of appearance of the person in the video;
A classification means for classifying whether or not a processing process is to be performed on each of the detected persons according to a result of comparing the score of each of the detected persons with a predetermined value;
An information processing device comprising:
前記登場頻度は、前記検出された人物の、前記動画における登場間隔及び登場回数に基づく値であることを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the appearance frequency is a value based on the appearance interval and number of appearances of the detected person in the video. 前記取得手段が前記動画として撮影日時が古いほうから順に第1動画及び第2動画を取得し、
前記検出手段が前記第2動画から前記人物を検出する場合、
前記算出手段は、前記検出された人物ごとに、前記第1動画及び前記第2動画における前記登場頻度に基づきスコアを算出することを特徴とする請求項1に記載の情報処理装置。
the acquiring means acquires, as the moving images, a first moving image and a second moving image in order from the oldest captured moving image to the newest captured moving image,
When the detection means detects the person from the second video,
The information processing apparatus according to claim 1 , wherein the calculation means calculates a score for each of the detected persons based on the appearance frequency in the first video and the second video.
前記情報処理装置は、さらに、
前記検出された人物ごとのスコアに基づき前記所定値を設定する設定手段を有し、
前記分類手段は、前記検出された人物ごとのスコアと前記設定手段により設定された前記所定値との比較の結果に応じて、前記加工処理を実行する対象とするか否かを分類することを特徴とする請求項1に記載の情報処理装置。
The information processing device further includes:
a setting means for setting the predetermined value based on the score for each of the detected persons,
The information processing device according to claim 1 , wherein the classification means classifies whether or not the detected person is to be subjected to the processing depending on a result of a comparison between the score of each detected person and the predetermined value set by the setting means.
前記分類手段は、前記検出された人物ごとのスコアが前記所定値以上である人物を、前記加工処理を実行する対象として分類をし、前記検出された人物ごとのスコアが前記所定値未満である人物を、前記加工処理を実行する対象としない分類をすることを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the classification means classifies the detected person whose score is equal to or greater than the predetermined value as a target for performing the processing, and classifies the detected person whose score is less than the predetermined value as a non-target for performing the processing. 前記情報処理装置は、さらに、
前記分類手段により分類された結果を電子機器へ通知する通知手段
を有することを特徴とする請求項1に記載の情報処理装置。
The information processing device further includes:
2. The information processing apparatus according to claim 1, further comprising a notification unit that notifies an electronic device of the result of classification by said classification unit.
前記情報処理装置は、さらに、
前記電子機器からの前記所定値の変更の指示を受信する受信手段を有し、
前記受信手段が、前記電子機器から前記所定値の変更の指示を受信する場合、
前記設定手段は、前記電子機器からの指示に基づき、前記所定値を変更し、
前記分類手段は、前記検出された人物ごとのスコアと前記設定手段により変更された前記所定値との比較の結果に応じて、前記加工処理を実行する対象とするか否かを分類することを特徴とする請求項4又は6に記載の情報処理装置。
The information processing device further includes:
a receiving means for receiving an instruction to change the predetermined value from the electronic device;
When the receiving means receives an instruction to change the predetermined value from the electronic device,
The setting means changes the predetermined value based on an instruction from the electronic device,
The information processing device according to claim 4 or 6, characterized in that the classification means classifies whether or not to perform the processing on each of the detected persons depending on a result of a comparison between the score of each of the detected persons and the predetermined value changed by the setting means.
前記情報処理装置は、さらに、
前記動画のうち、前記加工処理を実行する対象とすると分類された人物が検出された領域に対して、前記加工処理を実行する処理手段を有することを特徴とする請求項1に記載の情報処理装置。
The information processing device further includes:
2 . The information processing apparatus according to claim 1 , further comprising: a processing unit for executing the processing on an area in the moving image in which a person classified as a subject to be subjected to the processing is detected.
動画を取得する取得ステップと、
動画から人物を検出する検出ステップと、
前記検出された人物ごとに、前記動画における登場頻度に基づきスコアを算出する算出ステップと、
前記検出された人物ごとのスコアと所定値との比較の結果に応じて、加工処理を実行する対象とするか否かを分類する分類ステップ、
を備えることを特徴とする情報処理装置の制御方法。
An acquisition step of acquiring a video;
A detection step of detecting a person from a video;
A calculation step of calculating a score for each of the detected persons based on the frequency of appearance of the person in the video;
a classification step of classifying whether or not a processing process is to be performed on each of the detected persons according to a result of comparing the score of each of the detected persons with a predetermined value;
13. A method for controlling an information processing device, comprising:
コンピュータに請求項9に記載の情報処理装置の制御方法を実行させるためのプログラム。 A program for causing a computer to execute the control method for an information processing device according to claim 9. コンピュータに請求項9に記載の情報処理装置の制御方法を実行させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium having recorded thereon a program for causing a computer to execute the method for controlling an information processing device according to claim 9.
JP2023181301A 2023-10-20 2023-10-20 Information processing device Pending JP2025070770A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023181301A JP2025070770A (en) 2023-10-20 2023-10-20 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023181301A JP2025070770A (en) 2023-10-20 2023-10-20 Information processing device

Publications (1)

Publication Number Publication Date
JP2025070770A true JP2025070770A (en) 2025-05-02

Family

ID=95518639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023181301A Pending JP2025070770A (en) 2023-10-20 2023-10-20 Information processing device

Country Status (1)

Country Link
JP (1) JP2025070770A (en)

Similar Documents

Publication Publication Date Title
US11064161B2 (en) Systems and methods for video monitoring using linked devices
JP5268595B2 (en) Image processing apparatus, image display method, and image display program
US11082608B2 (en) Electronic apparatus, method, and storage medium
CN101472070A (en) Image capture device that records image accordant with predetermined condition and program
JP2010183500A (en) Information processing device, method, and program
CN108989659B (en) Display control device, control method thereof, and computer-readable storage medium
JP2019120748A (en) Electronic equipment and method of controlling the same
JP6460868B2 (en) Display control apparatus and control method thereof
US11106113B2 (en) Image capturing apparatus controlling manual focus operation amounts before and after autofocus, control method thereof, and storage medium
JP2020053720A (en) Electronic device and area selection method
US11039070B2 (en) Electronic device for selecting a candidate from a candidate group and changing a candidate group, control method of electronic device, and non-transitory computer readable medium
US9294678B2 (en) Display control apparatus and control method for display control apparatus
JP7049179B2 (en) Imaging control device and its control method, program and storage medium
JP2025070770A (en) Information processing device
JP7451162B2 (en) Imaging device
US11457137B2 (en) Electronic apparatus and control method for electronic apparatus
JP6407017B2 (en) Display control apparatus and control method thereof
JP2024110155A (en) Electronic device, control method thereof, and program
JP6370179B2 (en) Electronic device, control method therefor, program, and storage medium
JP6393296B2 (en) IMAGING DEVICE AND ITS CONTROL METHOD, IMAGING CONTROL DEVICE, PROGRAM, AND STORAGE MEDIUM
JP6198517B2 (en) Electronic device, control method and program thereof, and storage medium
US11064128B2 (en) Exposure setting apparatus, control method thereof, and storage medium
JP6664461B1 (en) Display control device and control method thereof
JP2023179219A (en) Image reproduction device, control method of the same, program and storage medium
JP2018005149A (en) Image processing device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213