[go: up one dir, main page]

JP2025068806A - Information processing device, information processing system, method, program, and recording medium - Google Patents

Information processing device, information processing system, method, program, and recording medium Download PDF

Info

Publication number
JP2025068806A
JP2025068806A JP2023178825A JP2023178825A JP2025068806A JP 2025068806 A JP2025068806 A JP 2025068806A JP 2023178825 A JP2023178825 A JP 2023178825A JP 2023178825 A JP2023178825 A JP 2023178825A JP 2025068806 A JP2025068806 A JP 2025068806A
Authority
JP
Japan
Prior art keywords
image
people
person
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023178825A
Other languages
Japanese (ja)
Inventor
幸広 谷添
Yukihiro Tanizoe
雄一朗 木元
Yuichiro Kimoto
拓也 天野
Takuya Amano
充義 岡本
Mitsuyoshi Okamoto
省吾 佐々木
Shogo Sasaki
賢治 荒川
Kenji Arakawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2023178825A priority Critical patent/JP2025068806A/en
Priority to PCT/JP2024/028520 priority patent/WO2025083979A1/en
Publication of JP2025068806A publication Critical patent/JP2025068806A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processing device capable of protecting the privacy of a photographed person.SOLUTION: An information processing device of the present disclosure includes a communication unit that acquires an image including a moving image or a still image obtained by imaging one or more people, a memory unit that stores a list that associates the one or more people in the image with multiple viewers who can view the image, and a control unit that performs image processing on the image. The control unit acquires identification information about the one or more people from the image, identifies the one or more people appearing in the image based on the identification information, acquires authentication information for the multiple viewers to identify the multiple viewers based on the authentication information, determines a specific person who can be viewed by a specific viewer from the one or more people based on the list, and changes the display of one or more people other than the specific person appearing in the image through image processing.SELECTED DRAWING: Figure 1

Description

本開示は、情報処理装置、情報処理システム、方法、プログラム、および記録媒体に関する。 This disclosure relates to an information processing device, an information processing system, a method, a program, and a recording medium.

特許文献1には、撮像された画像を入力し、画像処理を行うデータ処理部を有する情報処理装置が開示されている。 Patent document 1 discloses an information processing device having a data processing unit that inputs captured images and performs image processing.

特許文献1の情報処理装置では、データ処理部が、撮影された画像内の予め規定された一部領域を識別が不可能な画像に変更する画像処理を実行する。 In the information processing device of Patent Document 1, a data processing unit executes image processing to change a predefined area in a captured image into an image that cannot be identified.

国際公開第2021/019987号International Publication No. 2021/019987

特許文献1の情報処理装置では、撮影された人物のプライバシーを保護する点で、未だ改善の余地がある。 The information processing device of Patent Document 1 still has room for improvement in terms of protecting the privacy of photographed people.

本開示は、撮影された人物のプライバシーを保護することのできる、情報処理装置、情報処理システム、方法、プログラム、および記録媒体を提供する。 This disclosure provides an information processing device, information processing system, method, program, and recording medium that can protect the privacy of photographed people.

本開示の一態様にかかる情報処理装置は、
一人または複数の人物を撮像した動画または静止画を含む画像を取得する通信部と、
前記画像における前記一人または複数の人物と前記画像を閲覧可能な複数の閲覧者とを対応付けるリストを記憶する記憶部と、
前記画像に対して画像処理を実行する制御部と、
を備え、
前記制御部は、
前記画像から前記一人または複数の人物に関する識別情報を取得し、
前記識別情報に基づいて、前記画像に写る前記一人または複数の人物を識別し、
前記複数の閲覧者の認証情報を取得して、前記認証情報に基づいて前記複数の閲覧者を識別し、
前記リストに基づいて、前記一人または複数の人物の中から所定の閲覧者が閲覧可能な所定の人物を判定し、
画像処理により、前記画像に写る前記所定の人物以外の前記一人または複数の人物の表示を変更する。
An information processing device according to one aspect of the present disclosure includes:
A communication unit for acquiring images including moving images or still images of one or more people;
a storage unit that stores a list that associates the one or more people in the image with a plurality of viewers who can view the image;
A control unit that performs image processing on the image;
Equipped with
The control unit is
obtaining identifying information about the person or persons from the image;
identifying the person or people appearing in the image based on the identification information;
obtaining authentication information for the plurality of viewers and identifying the plurality of viewers based on the authentication information;
determining a specific person who is available for viewing by the specific viewer from among the one or more people based on the list;
Image processing alters the appearance of the person or people other than the predetermined person appearing in the image.

本開示の一態様にかかる情報処理システムは、
一人または複数の人物を撮像して動画または静止画を含む画像を生成する撮像部と、
前記撮像部から前記画像を受信して、画像処理を実行するサーバと、
を備え、
前記サーバは、
前記画像から前記一人または複数の人物に関する識別情報を取得し、
前記識別情報に基づいて、前記画像に写る前記一人または複数の人物を識別し、
前記複数の閲覧者の認証情報を取得して、前記認証情報に基づいて前記複数の閲覧者を識別し、
前記一人または複数の人物と前記画像を閲覧可能な複数の閲覧者とを対応付けるリストに基づいて、前記一人または複数の人物の中から所定の閲覧者が閲覧可能な所定の人物を判定し、
画像処理により、前記画像に写る前記所定の人物以外の前記一人または複数の人物の表示を変更する。
An information processing system according to one aspect of the present disclosure includes:
an imaging unit that captures an image of one or more people to generate an image including a moving image or a still image;
a server that receives the image from the imaging unit and executes image processing;
Equipped with
The server,
obtaining identifying information about the person or persons from the image;
identifying the person or people appearing in the image based on the identification information;
obtaining authentication information for the plurality of viewers and identifying the plurality of viewers based on the authentication information;
determining a specific person who can view the image from among the one or more people based on a list that associates the one or more people with a multiple viewers who can view the image;
Image processing alters the appearance of the person or people other than the predetermined person appearing in the image.

本開示の一態様にかかる方法は、
一人または複数の人物を撮像して動画または静止画を含む画像を取得するステップと、
前記画像に写る前記一人または複数の人物に関する識別情報を取得するするステップと、
前記識別情報に基づいて、前記画像に写る前記一人または複数の人物を識別するステップと、
前記画像を閲覧可能な複数の閲覧者の認証情報を取得して、前記認証情報に基づいて前記複数の閲覧者を識別するステップと、
前記一人または複数の人物と前記複数の閲覧者とを対応付けるリストに基づいて、前記一人または複数の人物の中から所定の閲覧者が閲覧可能な所定の人物を判定するステップと、
画像処理により、前記画像に写る前記所定の人物以外の前記一人または複数の人物の表示を変更するステップと、
を含む。
A method according to one aspect of the present disclosure includes:
capturing an image, including a moving or still image, of one or more people;
obtaining identification information for the one or more people depicted in the image;
identifying the one or more people appearing in the image based on the identification information;
acquiring authentication information of a plurality of viewers who are permitted to view the image, and identifying the plurality of viewers based on the authentication information;
determining a specific person who can be viewed by a specific viewer from among the one or more persons based on a list that associates the one or more persons with the multiple viewers;
modifying the display of the one or more people other than the predetermined person appearing in the image by image processing;
Includes.

本開示の一態様にかかるプログラムは、上述の態様の方法を実行させる。 A program according to one aspect of the present disclosure executes the method according to the above aspect.

本開示の一態様にかかる記録媒体は、上述の態様の方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。 A recording medium according to one aspect of the present disclosure is a computer-readable recording medium having recorded thereon a program for executing the method according to the above aspect.

本開示によると、撮影された人物のプライバシーを保護することのできる、情報処理装置、情報処理システム、方法、プログラム、および記録媒体を提供することができる。 The present disclosure provides an information processing device, information processing system, method, program, and recording medium that can protect the privacy of a person photographed.

実施の形態1にかかる情報処理装置の構成を概略的に示すブロック図FIG. 1 is a block diagram showing a schematic configuration of an information processing device according to a first embodiment; 撮像部により撮像された画像の一例を示す概略図FIG. 1 is a schematic diagram showing an example of an image captured by an imaging unit; リストの一例を示す表Table showing an example of a list 実施の形態1における人物の表示を変更した画像の一例を示す概略図FIG. 13 is a schematic diagram showing an example of an image in which the display of a person is changed in the first embodiment; 実施の形態1における人物の表示を変更した画像の一例を示す概略図FIG. 13 is a schematic diagram showing an example of an image in which the display of a person is changed in the first embodiment; 複数の閲覧者が情報処理装置にアクセスする場合の処理の一例を説明するための概略図FIG. 1 is a schematic diagram for explaining an example of a process when a plurality of viewers access an information processing device; 情報処理装置1の情報処理方法を説明するためのフローチャートA flowchart for explaining an information processing method of the information processing device 1. 実施の形態1の変形例1における人物の表示を変更した画像の一例を示す概略図FIG. 13 is a schematic diagram showing an example of an image in which the display of a person is changed according to a first modification of the first embodiment; 実施の形態1の変形例2における人物の表示を変更した画像の一例を示す概略図FIG. 13 is a schematic diagram showing an example of an image in which the display of a person is changed according to a second modification of the first embodiment; 実施の形態1の変形例3における情報処理システムを概略的に示すブロック図FIG. 13 is a block diagram showing an information processing system according to a third modification of the first embodiment. 実施の形態2にかかる情報処理装置の構成を概略的に示すブロック図FIG. 13 is a block diagram showing a schematic configuration of an information processing device according to a second embodiment; 実施の形態2における人物の表示を変更した画像の一例を示す概略図FIG. 13 is a schematic diagram showing an example of an image in which the display of a person is changed in the second embodiment; 情報処理装置の情報処理方法を説明するためのフローチャートA flowchart for explaining an information processing method of an information processing device 実施の形態3にかかる情報処理装置の構成を概略的に示すブロック図FIG. 13 is a block diagram showing a schematic configuration of an information processing device according to a third embodiment; 撮像部により取得した画像の一例を示す概略図FIG. 1 is a schematic diagram showing an example of an image acquired by an imaging unit; 実施の形態3における人物の表示を変更した画像の一例を示す概略図FIG. 13 is a schematic diagram showing an example of an image in which the display of a person is changed in the third embodiment; 情報処理装置の情報処理方法を説明するためのフローチャートA flowchart for explaining an information processing method of an information processing device 実施の形態4にかかる情報処理装置の構成を概略的に示すブロック図FIG. 13 is a block diagram showing a schematic configuration of an information processing device according to a fourth embodiment. 図17の情報処理装置の情報処理方法を説明するためのフローチャート18 is a flowchart for explaining the information processing method of the information processing apparatus of FIG. 17. 実施の形態5の情報処理装置の情報処理方法を説明するためのフローチャートA flowchart for explaining an information processing method of an information processing device according to a fifth embodiment

(本開示に至った経緯)
近年、例えば、保育施設等にネットワークカメラを設置し、保護者が子どもの様子を確認することができるような仕組みを提供することが検討されている。
(Background to this disclosure)
2. Description of the Related Art In recent years, for example, consideration has been given to providing a system in which network cameras are installed in childcare facilities and the like, enabling parents to check on the state of their children.

しかし、画像に写る人物のプライバシーが侵害されてしまうという課題がある。例えば、保育施設等において撮影した画像を保護者に提供する場合、保護者がSNSを通じて画像を投稿することにより、不特定多数の人に子どもの画像を見られてしまう、という懸念がある。 However, there is an issue that the privacy of people appearing in the images may be violated. For example, when images taken at a childcare facility are provided to parents, there is a concern that the parents may post the images on social media, allowing the images of their children to be seen by an unspecified number of people.

そこで、上述の課題を解決するために、本発明者(ら)は、撮像した画像に画像処理を施すことでプライバシーを保護することを検討し、以下の発明に至った。 Therefore, in order to solve the above-mentioned problems, the inventor(s) considered protecting privacy by applying image processing to captured images, and came up with the following invention.

(実施の形態1)
[全体構成]
図1は、本開示の実施の形態1にかかる情報処理装置1の構成を概略的に示すブロック図である。
(Embodiment 1)
[Overall configuration]
FIG. 1 is a block diagram illustrating a schematic configuration of an information processing device 1 according to a first embodiment of the present disclosure.

情報処理装置1は、例えば、複数の人が集まる施設、例えば、保育施設、学校、介護施設等に設置され、対象施設に通園、通学、または通所する児童、生徒、または要介護者等を含む複数の利用者を撮影し、撮影した画像を利用者の保護者または親族等に提供する。保護者または親族等は、自身のPCまたはスマートフォン等の電子機器を用いて情報処理装置1にアクセスすることで画像を参照することができ、施設における利用者の様子を把握することができる。 The information processing device 1 is installed, for example, in a facility where multiple people gather, such as a childcare facility, school, or nursing home, and photographs multiple users, including children, students, or people requiring nursing care, who attend the facility, and provides the photographed images to the users' guardians or relatives, etc. The guardians or relatives, etc. can access the information processing device 1 using their own electronic device, such as a PC or smartphone, to view the images and understand how the users are doing at the facility.

本実施の形態では、情報処理装置1は、複数の人物を撮影し、撮影した画像を加工して閲覧者に提供する機能を有する。情報処理装置1は、閲覧者の電子機器にネットワークを介して接続される機能や構成を有しており、ネットワークを介して閲覧者の電子機器に画像を送信することができる。 In this embodiment, the information processing device 1 has a function of photographing multiple people, processing the photographed images, and providing them to a viewer. The information processing device 1 has a function and configuration that allows it to be connected to the viewer's electronic device via a network, and can transmit images to the viewer's electronic device via the network.

図1に示すように、情報処理装置1は、記憶部20と、制御部30と、通信部21と、を備える。情報処理装置1は、撮像部10により撮像された画像を取得して記憶部20に記憶する。情報処理装置1は、さらに、記憶部20に記憶した画像に対して制御部30により画像処理を施す。なお、撮像部10は、情報処理装置1において必須の構成要素ではない。 As shown in FIG. 1, the information processing device 1 includes a storage unit 20, a control unit 30, and a communication unit 21. The information processing device 1 acquires an image captured by the imaging unit 10 and stores the image in the storage unit 20. The information processing device 1 further performs image processing on the image stored in the storage unit 20 by the control unit 30. Note that the imaging unit 10 is not a required component of the information processing device 1.

撮像部10は、一人または複数の人物を撮像して、動画または静止画を含む画像を生成する。一人または複数の人物は、上述した施設の利用者に相当する。撮像部10は、動画または静止画を撮像可能なカメラである。撮像部10により生成された画像は、通信部21を介して情報処理装置1の記憶部20に記憶される。 The imaging unit 10 captures an image of one or more people and generates an image including a moving image or a still image. The one or more people correspond to users of the facility described above. The imaging unit 10 is a camera capable of capturing moving images or still images. The image generated by the imaging unit 10 is stored in the memory unit 20 of the information processing device 1 via the communication unit 21.

記憶部20は、撮像部10により撮像された画像40と、後述するリスト50とを記憶する。記憶部20は、例えば、フラッシュメモリ、ソリッド・ステート・ドライブ(SSD)等の半導体記憶装置、ハードディスクドライブ(HDD)等の磁気記憶装置、またはSRAMまたはDRAM等の揮発性メモリにより構成される。 The storage unit 20 stores the image 40 captured by the imaging unit 10 and a list 50, which will be described later. The storage unit 20 is configured, for example, from a semiconductor storage device such as a flash memory or a solid state drive (SSD), a magnetic storage device such as a hard disk drive (HDD), or a volatile memory such as an SRAM or DRAM.

通信部21は、撮像部10またはその他の電子機器との間で有線または無線により通信を行うネットワークインタフェース回路を含む。通信部21は、例えば、WAN(Wide Area Network)、LAN(Local Area Network)、LTE(Long Term Evolution)、5G等の移動体通信、または電力線通信、Bluetooth(登録商標)等を含む近距離無線通信などの所定の通信規格を用いて、撮像部10により生成された画像を取得する。 The communication unit 21 includes a network interface circuit that communicates with the imaging unit 10 or other electronic devices in a wired or wireless manner. The communication unit 21 acquires images generated by the imaging unit 10 using a predetermined communication standard such as mobile communications such as WAN (Wide Area Network), LAN (Local Area Network), LTE (Long Term Evolution), and 5G, or short-range wireless communications including power line communications and Bluetooth (registered trademark).

制御部30は、撮像部10により撮像された画像に対して画像処理を実行するためのプロセッサである。制御部30は、例えば、内蔵の記憶装置に格納されたプログラムを実行することにより、所定の機能を実現するプロセッサにより構成される。制御部30は、ハードウェアとソフトウェアとの協働により所定の機能を実行するものに限定されず、所定の機能を実現するために設計されたハードウェア回路であってもよい。すなわち、制御部30は、マイコン、CPU、MPU、GPU、DSP、FPGA、ASIC等の種々のプロセッサにより構成することができる。 The control unit 30 is a processor for performing image processing on the image captured by the imaging unit 10. The control unit 30 is configured, for example, by a processor that realizes a predetermined function by executing a program stored in a built-in storage device. The control unit 30 is not limited to a processor that performs a predetermined function through the cooperation of hardware and software, and may be a hardware circuit designed to realize a predetermined function. In other words, the control unit 30 can be configured by various processors such as a microcomputer, CPU, MPU, GPU, DSP, FPGA, ASIC, etc.

本実施の形態では、図1に示すように、制御部30は、識別情報取得部31、人物識別部32、閲覧者識別部33、閲覧可否判定部34、および画像処理部35、を含む。 In this embodiment, as shown in FIG. 1, the control unit 30 includes an identification information acquisition unit 31, a person identification unit 32, a viewer identification unit 33, a viewing permission determination unit 34, and an image processing unit 35.

次に、制御部30の画像処理について説明する。なお、本実施の形態では、保育施設で撮像された画像に対して画像処理を実行する例について説明する。 Next, the image processing of the control unit 30 will be described. In this embodiment, an example of performing image processing on images captured in a childcare facility will be described.

図2は、撮像部10により撮像された画像40の一例を示す概略図である。 Figure 2 is a schematic diagram showing an example of an image 40 captured by the imaging unit 10.

識別情報取得部31は、撮像部10により撮像された画像40から、一人または複数の人物に関する識別情報を取得する。本実施の形態では、複数の人物には、保育施設に通う児童、または保育施設の職員等が含まれる。一人または複数の人物に関する識別情報とは、画像中の人物のそれぞれを識別するための情報であり、例えば、それぞれの人物の顔、身長、骨格等の特徴量を含む。識別情報取得部31は、画像40から人物を抽出する。図2の例では、識別情報取得部31は、人物a1~a4の4人の人物を抽出することができる。識別情報取得部31は、抽出した人物a1~a4に関する識別情報として、例えば顔の特徴量を取得する。顔の特徴量とは、例えば、それぞれの人物の顔の特定の部位、例えば、目、鼻、口、耳、等の形状、大きさ、位置等を含む情報であり、それぞれの人物を識別することのできる情報である。 The identification information acquisition unit 31 acquires identification information related to one or more people from the image 40 captured by the imaging unit 10. In this embodiment, the multiple people include children attending a childcare facility or staff at the childcare facility. The identification information related to one or more people is information for identifying each person in the image, and includes, for example, features of each person, such as the face, height, and bone structure. The identification information acquisition unit 31 extracts people from the image 40. In the example of FIG. 2, the identification information acquisition unit 31 can extract four people, people a1 to a4. The identification information acquisition unit 31 acquires, for example, facial features as identification information related to the extracted people a1 to a4. The facial features are, for example, information including the shape, size, and position of specific parts of the face of each person, such as the eyes, nose, mouth, ears, etc., and are information that can identify each person.

人物識別部32は、取得した識別情報に基づいて、画像40に写る一人または複数の人物を識別する。人物識別部32は、例えばあらかじめ記憶部20に記憶しておいたそれぞれの人物と顔の特徴量などの識別情報とを関連付けるデータを、取得した識別情報と照合することにより、画像に写るそれぞれの人物を識別する。言い換えると、人物識別部32は、画像に写るそれぞれの人物が誰であるかを識別する。図2の例では、人物識別部32は、人物a1が児童A、人物a2が職員O、人物a3が児童B、人物a4が児童Cであることを識別する。 The person identification unit 32 identifies one or more people appearing in the image 40 based on the acquired identification information. The person identification unit 32 identifies each person appearing in the image by, for example, comparing the acquired identification information with data that associates each person with identification information such as facial features that has been stored in advance in the storage unit 20. In other words, the person identification unit 32 identifies who each person appearing in the image is. In the example of FIG. 2, the person identification unit 32 identifies that person a1 is child A, person a2 is staff member O, person a3 is child B, and person a4 is child C.

閲覧者識別部33は、複数の閲覧者の認証情報を取得して、認証情報に基づいて複数の閲覧者を識別する。複数の閲覧者とは、画像40を閲覧することを許可された者である。閲覧することを許可された者とは、本実施の形態の例では、保育施設に通う児童の保護者または親族等、児童の関係者である。すなわち、本実施の形態では、閲覧者として、保育施設に通う児童の保護者または親族等の関係者が含まれる。閲覧者は、自身のスマートフォン、タブレット、またはPC等の電子機器を利用して情報処理装置1にアクセスすることにより、画像40を閲覧することができる。閲覧者識別部33は、閲覧者の電子機器から情報処理装置1にアクセスされたときに、閲覧者の認証情報を取得する。閲覧者の認証情報とは、例えば、情報処理装置1にアクセスするためのID情報、または閲覧者の電子機器を示す端末固有情報等を含む。ID情報には、例えば、情報処理装置1にアクセスするためのユーザID、閲覧者のメールアドレス、または、閲覧者の指紋、静脈、または虹彩などの生体認証情報等を含む。端末固有情報には、電子機器ごとに設定されたシリアル番号、またはMACアドレス等、端末を一意に特定することのできる情報を含む。閲覧者識別部33は、閲覧者の認証情報に基づいて、情報処理装置1にアクセスした閲覧者を識別する。すなわち、閲覧者識別部33は、閲覧者がどの児童の関係者であるかを識別する。 The viewer identification unit 33 acquires authentication information of multiple viewers and identifies the multiple viewers based on the authentication information. The multiple viewers are those who are permitted to view the image 40. In the example of this embodiment, those who are permitted to view are related parties to the child, such as the guardian or relatives of the child attending the childcare facility. That is, in this embodiment, viewers include related parties such as the guardian or relatives of the child attending the childcare facility. The viewer can view the image 40 by accessing the information processing device 1 using his/her own electronic device such as a smartphone, tablet, or PC. The viewer identification unit 33 acquires the authentication information of the viewer when the information processing device 1 is accessed from the viewer's electronic device. The authentication information of the viewer includes, for example, ID information for accessing the information processing device 1, or terminal-specific information indicating the viewer's electronic device. The ID information includes, for example, a user ID for accessing the information processing device 1, the viewer's email address, or biometric authentication information such as the viewer's fingerprint, vein, or iris. The terminal-specific information includes information that can uniquely identify a terminal, such as a serial number set for each electronic device, or a MAC address. The viewer identification unit 33 identifies the viewer who has accessed the information processing device 1 based on the viewer's authentication information. In other words, the viewer identification unit 33 identifies which child the viewer is related to.

閲覧可否判定部34は、記憶部20に記憶されたリスト50に基づいて、一人または複数の人物の中から、所定の閲覧者が閲覧可能な所定の人物を判定する。それぞれの閲覧者は、画像40に複数の人物が写っている場合、所定の人物を閲覧することができる。所定の人物は、所定の閲覧者が閲覧可能な人物であり、本実施の形態では、閲覧者自身の子どもまたは孫等である。閲覧可否判定部34は、所定の閲覧者が閲覧可能な人物を判定する。図3は、リスト50の一例を示す表である。図3に示すように、リスト50は、複数の人物と複数の閲覧者との対応を示す。図3に例示するリスト50では、保護者Rが閲覧可能な人物は児童Aであり、保護者Sが閲覧可能な人物は児童Bであり、保護者Tが閲覧可能な人物は児童Cであり、保護者Uが閲覧可能な人物は児童Dであることが示されている。なお、図3の例では、職員O~Qについては閲覧者が割り当てられておらず、職員O~Qはどの閲覧者も閲覧することができない。閲覧者識別部33により閲覧者が保護者Rであると識別された場合、閲覧可否判定部34は、所定の人物を児童Aであると判定する。閲覧者識別部33により閲覧者が保護者Sであると識別された場合、閲覧可否判定部34は、所定の人物を児童Bであると判定する。このようにして、閲覧可否判定部34は、閲覧者識別部33により識別された閲覧者に対して、閲覧可能である人物を判定する。 The viewing permission determination unit 34 determines a specific person who can be viewed by a specific viewer from among one or more people based on the list 50 stored in the storage unit 20. When multiple people are shown in the image 40, each viewer can view the specific person. The specific person is a person who can be viewed by the specific viewer, and in this embodiment, is the viewer's own child or grandchild. The viewing permission determination unit 34 determines a person who can be viewed by the specific viewer. FIG. 3 is a table showing an example of the list 50. As shown in FIG. 3, the list 50 shows the correspondence between multiple people and multiple viewers. In the list 50 shown in FIG. 3, it is shown that the person who can be viewed by the guardian R is child A, the person who can be viewed by the guardian S is child B, the person who can be viewed by the guardian T is child C, and the person who can be viewed by the guardian U is child D. Note that in the example of FIG. 3, no viewers are assigned to the staff members O to Q, and none of the viewers can view the staff members O to Q. When the viewer identification unit 33 identifies the viewer as guardian R, the viewing permission determination unit 34 determines that the specified person is child A. When the viewer identification unit 33 identifies the viewer as guardian S, the viewing permission determination unit 34 determines that the specified person is child B. In this way, the viewing permission determination unit 34 determines who is permitted to view the viewer identified by the viewer identification unit 33.

画像処理部35は、画像処理により、画像40に写る所定の人物以外の一人または複数の人物の表示を変更する。図4A~図4Bは、実施の形態1における人物の表示を変更した画像40a~40bの一例を示す概略図である。例えば、閲覧者識別部33で閲覧者が保護者Rであると識別され、閲覧可否判定部34で所定の人物が児童Aであると判定された場合、画像処理部35は、画像40に写る一人または複数の人物のうち、児童A以外の人物の表示を変更する。上述したように、図2の画像40において、人物識別部32により人物a1が児童Aであることが識別される。閲覧者が保護者Rである場合、所定の人物は児童Aである。したがって、画像処理部35は、図4Aに示すように、人物a1(児童A)以外の人物a2~a4について、表示を変更する。図4Aの例では、画像処理部35は、人物a2~a4の3人の顔に、予め用意された画像を上書きすることにより、人物の表示を変更する。図4Aの例では、職員である人物a2の顔には星型の画像41aを上書きし、児童である人物a3および人物a4の顔には、ハート形の画像41bを上書きすることで、職員と児童とを閲覧者が区別できるようにしている。上書きする画像41a、41bは、すべての人物に対して同じ画像であってもよいし、すべての人物に対して異なる画像であってもよい。同様に、閲覧者識別部33で閲覧者が保護者Sであると識別され閲覧可否判定部34で所定の人物が児童Bであると判定された場合、画像処理部35は、画像40に写る一人または複数の人物のうち、児童B以外の人物の表示を変更する。上述したように、図2の画像40において、人物識別部32により人物a3が児童Bであることが識別されている。画像処理部35は、図4Bに示すように、人物a3以外の人物a1~a2、4について顔を画像41a、41bで上書きすることで表示を変更する。 The image processing unit 35 changes the display of one or more people other than the specified person appearing in the image 40 by image processing. Figures 4A to 4B are schematic diagrams showing examples of images 40a to 40b in which the display of people has been changed in embodiment 1. For example, if the viewer identification unit 33 identifies the viewer as guardian R and the viewing permission determination unit 34 determines that the specified person is child A, the image processing unit 35 changes the display of the people other than child A among the one or more people appearing in the image 40. As described above, in the image 40 of Figure 2, the person identification unit 32 identifies person a1 as child A. If the viewer is guardian R, the specified person is child A. Therefore, the image processing unit 35 changes the display of people a2 to a4 other than person a1 (child A) as shown in Figure 4A. In the example of Figure 4A, the image processing unit 35 changes the display of the people by overwriting the faces of the three people a2 to a4 with a prepared image. In the example of FIG. 4A, a star-shaped image 41a is overwritten on the face of person a2, who is a staff member, and a heart-shaped image 41b is overwritten on the faces of person a3 and person a4, who are children, so that the viewer can distinguish between staff and children. The overwritten images 41a and 41b may be the same image for all people, or may be different images for all people. Similarly, when the viewer identification unit 33 identifies the viewer as guardian S and the viewing permission determination unit 34 determines that a specific person is child B, the image processing unit 35 changes the display of one or more people appearing in the image 40, other than child B. As described above, in the image 40 of FIG. 2, person a3 is identified as child B by the person identification unit 32. The image processing unit 35 changes the display by overwriting the faces of people a1 to a2, and 4 other than person a3 with images 41a and 41b, as shown in FIG. 4B.

それぞれの閲覧者は、自身の閲覧可能な所定の人物以外の人物の表示が変更された画像を閲覧することができる。図5は、複数の閲覧者が情報処理装置1にアクセスする場合の処理の一例を説明するための概略図である。図5の例では、3人の閲覧者b1~b3が情報処理装置1にアクセスする例を示している。情報処理装置1において、閲覧者識別部33が、それぞれの閲覧者b1~b3の識別情報c1~c3を取得して、識別情報c1~c3に基づいて、それぞれの閲覧者b1~b3が、図3に示す保護者R~Tであると識別する。この場合、情報処理装置1は、保護者Rと識別された閲覧者b1に対しては、人物a1以外の表示が変更された画像40aを閲覧させる。同様に、情報処理装置1は、保護者Sと識別された閲覧者b2に対しては、人物a3以外の表示が変更された画像40bを閲覧させる。さらに、情報処理装置1は、保護者Tと識別された閲覧者b3に対しては、人物a3(児童C)以外の表示が変更された画像40cを閲覧させる。したがって、それぞれの閲覧者b1~b3は、自身が閲覧している画像40a~40cを見ても、画像40a~40cに写る所定の人物以外の人物が誰であるかを知ることは困難である。情報処理装置1は、複数の閲覧者b1~b3に対して、それぞれ異なる画像を閲覧させることにより、画像に写る人物のプライバシーを保護することができる。 Each viewer can view an image in which the display of people other than the specified people that can be viewed by the viewer has been changed. FIG. 5 is a schematic diagram for explaining an example of a process in which multiple viewers access the information processing device 1. In the example of FIG. 5, an example is shown in which three viewers b1 to b3 access the information processing device 1. In the information processing device 1, the viewer identification unit 33 acquires the identification information c1 to c3 of each viewer b1 to b3, and identifies each viewer b1 to b3 as guardians R to T shown in FIG. 3 based on the identification information c1 to c3. In this case, the information processing device 1 allows the viewer b1 identified as guardian R to view the image 40a in which the display of people other than person a1 has been changed. Similarly, the information processing device 1 allows the viewer b2 identified as guardian S to view the image 40b in which the display of people other than person a3 has been changed. Furthermore, the information processing device 1 allows the viewer b3 identified as guardian T to view the image 40c in which the display of people other than person a3 (child C) has been changed. Therefore, even if each of the viewers b1 to b3 looks at the images 40a to 40c that they are viewing, it is difficult for them to know who the people in the images 40a to 40c are other than the specified people. The information processing device 1 can protect the privacy of the people in the images by allowing the multiple viewers b1 to b3 to view different images.

[情報処理方法]
図6は、情報処理装置1の情報処理方法を説明するためのフローチャートである。図6を参照して、情報処理装置1の情報処理方法について説明する。
[Information processing method]
6 is a flowchart for explaining the information processing method of the information processing device 1. The information processing method of the information processing device 1 will be explained with reference to FIG.

ステップS1において、通信部21により、撮像部10により生成された一人または複数の人物を撮像して動画または静止画を含む画像40を取得する。取得した画像40は、記憶部20に記憶される。 In step S1, the communication unit 21 captures one or more people generated by the imaging unit 10 to obtain an image 40 including a moving image or a still image. The obtained image 40 is stored in the storage unit 20.

ステップS2において、識別情報取得部31が、画像40に写る一人または複数の人物の識別情報を取得する。本実施の形態では、識別情報取得部31は、人物の顔の特徴量を取得する。 In step S2, the identification information acquisition unit 31 acquires identification information of one or more people appearing in the image 40. In this embodiment, the identification information acquisition unit 31 acquires facial features of the people.

ステップS3において、人物識別部32が、識別情報に基づいて、画像40に写る一人または複数の人物を識別する。本実施の形態では、人物識別部32は、図2に示す画像40において、顔の特徴量に基づいて、人物a1~a4がそれぞれ、児童A、職員O、児童B、児童Cであることを識別する。 In step S3, the person identification unit 32 identifies one or more people appearing in the image 40 based on the identification information. In this embodiment, the person identification unit 32 identifies that the people a1 to a4 in the image 40 shown in FIG. 2 are Child A, Staff O, Child B, and Child C, respectively, based on the facial features.

ステップS4において、閲覧者識別部33が、画像40を閲覧可能な閲覧者b1~b3の認証情報c1~c3を取得して、認証情報c1~c3に基づいて複数の閲覧者b1~b3を識別する。本実施の形態では、閲覧者識別部33は、閲覧者b1~b3がそれぞれ、保護者R、保護者S、保護者Tであることを識別する。 In step S4, the viewer identification unit 33 acquires authentication information c1 to c3 of viewers b1 to b3 who are permitted to view the image 40, and identifies the multiple viewers b1 to b3 based on the authentication information c1 to c3. In this embodiment, the viewer identification unit 33 identifies viewers b1 to b3 as guardian R, guardian S, and guardian T, respectively.

ステップS5において、閲覧可否判定部34が、リスト50に基づいて、一人または複数の人物の中から所定の閲覧者b1~b3が閲覧可能な所定の人物を判定する。本実施の形態では、閲覧可否判定部34は、リスト50に基づいて、閲覧者b1(保護者R)は人物a1(児童A)を閲覧可能であり、閲覧者b2(保護者S)は人物a3(児童B)を閲覧可能であり、閲覧者b3は人物a4(児童C)を閲覧可能であると判定する。 In step S5, the accessibility determination unit 34 determines, from one or more persons, the specified persons that the specified viewers b1 to b3 can access, based on the list 50. In this embodiment, the accessibility determination unit 34 determines, based on the list 50, that the viewer b1 (guardian R) can access the person a1 (child A), the viewer b2 (guardian S) can access the person a3 (child B), and the viewer b3 can access the person a4 (child C).

ステップS6において、画像処理部35が、画像40に写る所定の人物以外の人物の表示を変更する。例えば、画像処理部35は、例えば、閲覧者が保護者R(閲覧者b1)である場合、所定の人物である人物a1(児童A)以外の人物a2~a4の画像を変更する。具体的には、画像処理部35は、例えば、閲覧者が保護者R(閲覧者b1)である場合、上述したように、所定の人物以外の人物a2~a4の顔を別の画像41a~41bで上書きする。閲覧者が保護者S~Uである場合にも同様に、画像40を加工する。 In step S6, the image processing unit 35 changes the display of people other than the specified person appearing in the image 40. For example, when the viewer is guardian R (viewer b1), the image processing unit 35 changes the images of people a2 to a4 other than the specified person, person a1 (child A). Specifically, when the viewer is guardian R (viewer b1), the image processing unit 35 overwrites the faces of people a2 to a4 other than the specified person with different images 41a to 41b as described above. When the viewer is guardian S to U, the image 40 is processed in a similar manner.

[効果]
上述した実施の形態によると、以下の効果を奏する。
[effect]
According to the above-described embodiment, the following effects are obtained.

情報処理装置1は、通信部21と、記憶部20と、制御部30と、を備える。通信部21は、一人または複数の人物を撮像して動画または静止画を含む画像40を取得する。記憶部20は、一人または複数の人物と画像40を閲覧可能な複数の閲覧者とを対応付けるリスト50を記憶する。制御部30は、画像40に対して画像処理を実行する。制御部30は、画像40から一人または複数の人物に関する識別情報を取得する。制御部30は、識別情報に基づいて、画像40に写る一人または複数の人物を識別する。制御部30は、複数の閲覧者の認証情報を取得して、認証情報に基づいて複数の閲覧者を識別する。制御部30は、リスト50に基づいて、一人または複数の人物の中から所定の閲覧者が閲覧可能な所定の人物を判定する。制御部30は、画像処理により、画像40に写る所定の人物以外の一人または複数の人物の表示を変更する。 The information processing device 1 includes a communication unit 21, a storage unit 20, and a control unit 30. The communication unit 21 captures one or more people and acquires an image 40 including a video or still image. The storage unit 20 stores a list 50 that associates one or more people with multiple viewers who can view the image 40. The control unit 30 performs image processing on the image 40. The control unit 30 acquires identification information related to one or more people from the image 40. The control unit 30 identifies one or more people appearing in the image 40 based on the identification information. The control unit 30 acquires authentication information of the multiple viewers and identifies the multiple viewers based on the authentication information. The control unit 30 determines a specific person who can be viewed by a specific viewer from one or more people based on the list 50. The control unit 30 changes the display of one or more people other than the specific person appearing in the image 40 by image processing.

このような構成により、所定の閲覧者が閲覧することのできる人物以外の人物の表示を変更することで、画像40に写る人物のプライバシーを保護することができる。また、所定の閲覧者が閲覧することのできる人物以外の人物の表示を変更することで、閲覧者にとっては、自身の閲覧可能な人物の様子を確認することができる。さらに、所定の閲覧者が閲覧することのできる人物以外の人物の表示を変更することで、画像に写る人物にとっては、常時監視されているというストレスを軽減することができる。 With this configuration, the privacy of the people appearing in the image 40 can be protected by changing the display of people other than the people the specified viewer can view. Also, by changing the display of people other than the people the specified viewer can view, the viewer can check the appearance of the people that he or she can view. Furthermore, by changing the display of people other than the people the specified viewer can view, the stress of being constantly monitored can be reduced for the people appearing in the image.

画像40に写る所定の人物以外の一人または複数の人物の表示を変更することは、一人または複数の人物に予め用意された画像を上書きすることを含む。 Changing the display of one or more people other than a specific person appearing in image 40 includes overwriting the one or more people with a pre-prepared image.

このような構成により、閲覧者は、自身が閲覧可能な人物以外の人物が誰であるかわからなくなるため、多数の人物が画像に写っている場合でもプライバシーを保護することができる。 With this configuration, the viewer cannot see who is in the image other than the people that the viewer can view, so privacy can be protected even if multiple people are in the image.

認証情報は、情報処理装置1にアクセスするための閲覧者のID情報、または閲覧者の所有する情報処理装置1にアクセス可能な電子機器を示す端末固有情報を含む。 The authentication information includes the viewer's ID information for accessing the information processing device 1, or terminal-specific information indicating an electronic device owned by the viewer that can access the information processing device 1.

このような構成により、閲覧者を識別して閲覧者ごとに異なる画像処理を施した画像を提供することができる。 This configuration makes it possible to identify viewers and provide images that have been subjected to different image processing for each viewer.

本開示は、情報処理装置1を制御するためのコンピュータプログラムおよび記憶媒体を提供することができる。 The present disclosure can provide a computer program and a storage medium for controlling the information processing device 1.

上述した情報処理方法を、情報処理装置1に実行させるためのコンピュータプログラムが提供される。 A computer program is provided for causing the information processing device 1 to execute the above-mentioned information processing method.

コンピュータプログラムは、非一時的なコンピュータ読み取り可能な記憶媒体に記憶されている。コンピュータプログラムが情報処理装置1の制御部30によって読み出されて実行されるときに、上述の情報処理方法が実現される。 The computer program is stored in a non-transitory computer-readable storage medium. When the computer program is read and executed by the control unit 30 of the information processing device 1, the above-described information processing method is realized.

非一時的なコンピュータ読み取り可能な記憶媒体は、情報処理装置1の記憶部20であってもよいし、情報処理装置1の外部の記憶装置であってもよい。 The non-transitory computer-readable storage medium may be the memory unit 20 of the information processing device 1 or may be an external storage device of the information processing device 1.

なお、上述した実施の形態では、制御部30の人物識別部32が、顔の特徴量に基づいて一人または複数の人物を識別する例について説明したが、これに限定されない。人物識別部32は、顔以外に、身長または骨格等の情報に基づいて一人または複数の人物を識別してもよい。 In the above embodiment, an example has been described in which the person identification unit 32 of the control unit 30 identifies one or more people based on facial features, but this is not limiting. The person identification unit 32 may identify one or more people based on information such as height or bone structure in addition to the face.

図7は、実施の形態1の変形例1における人物の表示を変更した画像40dの一例を示す概略図である。人物の表示の変更は、所定の人物a1以外の人物a2~a4にモザイク処理42を施すことであってもよい。所定の閲覧者b1が閲覧可能な所定の人物が人物a1である場合、図7に示すように、画像処理部35は、人物a2~a4の顔にモザイク処理42を施す。モザイク処理により、閲覧者b1が画像40dを閲覧したときに、人物a2~a4が誰であるかわからないようにすることができる。なお、図7の例では、人物a2~a4の顔にモザイク処理42を施しているが、人物a2~a4の全身に対してモザイク処理を施してもよい。 Figure 7 is a schematic diagram showing an example of image 40d in which the display of people has been changed in Variation 1 of Embodiment 1. The display of people may be changed by applying mosaic processing 42 to people a2 to a4 other than the predetermined person a1. When the predetermined person that can be viewed by the predetermined viewer b1 is person a1, as shown in Figure 7, the image processing unit 35 applies mosaic processing 42 to the faces of people a2 to a4. By using mosaic processing, it is possible to make it impossible to tell who people a2 to a4 are when viewer b1 views image 40d. Note that in the example of Figure 7, mosaic processing 42 is applied to the faces of people a2 to a4, but mosaic processing may also be applied to the entire bodies of people a2 to a4.

図8は、実施の形態1の変形例2における人物の表示を変更した画像40eの一例を示す概略図である。人物の表示の変更は、所定の人物a1以外の人物a2~a4を所定の色で塗りつぶすことであってもよい。所定の閲覧者b1が閲覧可能な所定の人物が人物a1である場合、図7に示すように、画像処理部35は、人物a2~a4の顔を所定の色43で塗りつぶす。人物a2~a4の顔を所定の色43で塗りつぶすことで、閲覧者b1が画像40eを閲覧したときに、人物a2~a4が誰であるかわからないようにすることができる。なお、図8の例では、人物a2~a4の顔を所定の色43で塗りつぶしているが、人物a2~a4の全身を所定の色で塗りつぶしてもよい。 Figure 8 is a schematic diagram showing an example of image 40e in which the display of people has been changed in Variation 2 of Embodiment 1. The display of people may be changed by painting people a2 to a4 other than the predetermined person a1 with a predetermined color. When the predetermined person that can be viewed by the predetermined viewer b1 is person a1, as shown in Figure 7, the image processing unit 35 paints the faces of people a2 to a4 with a predetermined color 43. By painting the faces of people a2 to a4 with the predetermined color 43, it is possible to make it impossible to tell who people a2 to a4 are when viewer b1 views image 40e. Note that in the example of Figure 8, the faces of people a2 to a4 are painted with the predetermined color 43, but the entire bodies of people a2 to a4 may be painted with the predetermined color.

図9は、実施の形態1の変形例3における情報処理システム100を概略的に示すブロック図である。実施の形態1では、通信部21と、記憶部20と、制御部30とを備える情報処理装置1について説明したが、図9に示すように、例えば撮像部10と、記憶部20および制御部30を含むサーバ60とを含む情報処理システム100が構成されてもよい。図9に示すように、情報処理システム100は、撮像部10とサーバ60とを備える。撮像部10は、実施の形態1で説明した情報処理装置1の撮像部10と同様の構成であるため説明を省略する。サーバ60には、実施の形態1で説明した情報処理装置1の記憶部20および制御部30が含まれている。サーバ60は、撮像部10から画像40を受信して、画像処理を実行する。情報処理システム100においては、撮像部10とサーバ60とが異なる場所に配置することができる。すなわち、保育施設等に設置された撮像部10を、サーバ60により遠隔で操作することができる。なお、サーバ60は必ずしもネットワーク上のものでなくてもよく、例えば、ノートPC、NAS(Network Attached Strage)、またはスマホあるいはタブレット等の電子機器であってもよい。 Figure 9 is a block diagram that shows an outline of an information processing system 100 in a third modified example of the first embodiment. In the first embodiment, the information processing device 1 including the communication unit 21, the storage unit 20, and the control unit 30 has been described. However, as shown in Figure 9, the information processing system 100 may be configured to include, for example, an imaging unit 10 and a server 60 including the storage unit 20 and the control unit 30. As shown in Figure 9, the information processing system 100 includes the imaging unit 10 and the server 60. The imaging unit 10 has the same configuration as the imaging unit 10 of the information processing device 1 described in the first embodiment, so a description thereof will be omitted. The server 60 includes the storage unit 20 and the control unit 30 of the information processing device 1 described in the first embodiment. The server 60 receives the image 40 from the imaging unit 10 and performs image processing. In the information processing system 100, the imaging unit 10 and the server 60 can be arranged in different locations. That is, the imaging unit 10 installed in a childcare facility or the like can be remotely operated by the server 60. Note that server 60 does not necessarily have to be on a network, but may be, for example, a notebook PC, a NAS (Network Attached Storage), or an electronic device such as a smartphone or tablet.

(実施の形態2)
図10~図11を参照して、実施の形態2について説明する。なお、実施の形態2においては、実施の形態1と同一または同等の構成については同じ符号を付して説明する。また、実施の形態2では、実施の形態1と重複する記載は省略する。
(Embodiment 2)
A second embodiment will be described with reference to Figures 10 and 11. In the second embodiment, the same or equivalent configurations as those in the first embodiment will be denoted by the same reference numerals. In the second embodiment, descriptions that overlap with those in the first embodiment will be omitted.

図10は、実施の形態2にかかる情報処理装置1Aの構成を概略的に示すブロック図である。図11は、実施の形態2における人物の表示を変更した画像40fの一例を示す概略図である。また、実施の形態2では、制御部30の表情検出部36が、顔の特徴量に基づいて一人または複数の人物の顔の向きおよび表情を検出する点で実施の形態1と異なる。また、実施の形態2では、人物の表示を変更することが、人物の顔をアバターに変更することを含む点で、実施の形態1と異なる。 Fig. 10 is a block diagram showing a schematic configuration of an information processing device 1A according to embodiment 2. Fig. 11 is a schematic diagram showing an example of an image 40f in which the display of a person in embodiment 2 has been changed. Furthermore, embodiment 2 differs from embodiment 1 in that the facial expression detection unit 36 of the control unit 30 detects the facial orientation and facial expression of one or more people based on facial features. Furthermore, embodiment 2 differs from embodiment 1 in that changing the display of a person includes changing the person's face to an avatar.

図10に示すように、実施の形態2の情報処理装置1Aでは、制御部30が表情検出部36を含む。その他の構成は、実施の形態1で説明した情報処理装置1と同様であるため、説明を省略する。 As shown in FIG. 10, in the information processing device 1A of the second embodiment, the control unit 30 includes a facial expression detection unit 36. The other configuration is the same as that of the information processing device 1 described in the first embodiment, and therefore the description is omitted.

実施の形態2では、一人または複数の人物を識別するための識別情報は、一人または複数の人物の顔の特徴量を含む。表情検出部36は、顔の特徴量に基づいて、画像に写る一人または複数の人物の顔の向きおよび表情を検出する。表情とは、例えば、眼の開閉、口の開閉などの顔面の動きを含み、表情筋の作用によって人物の感情または情動などの心的状態が顔面に現れたものを指す。表情検出部36は、図2の画像40の例において、顔の向き、例えば、人物a1~a3は顔を撮像部10に向けていること、および、人物a4は顔を撮像部10とは反対の方向に向けていることを検出する。また、表情検出部36は、それぞれの人物a1~a4の表情を検出する。画像処理部35は、表情検出部36により検出された人物a1~a4の顔の向きおよび表情を反映して、所定の人物以外の一人または複数の人物の顔をアバターに変更する。アバターとは、画像に写る人物a1~a4の分身として画像に表示されるキャラクターである。画像に写る人物a1~a4の顔の向きおよび表情をアバターに反映させることで、画像に写る人物a1~a4のプライバシーを保護しつつ、閲覧者が画像に写る人物a1~a4の表情や動きなどをよりリアルに把握することができる。 In the second embodiment, the identification information for identifying one or more persons includes facial features of one or more persons. The facial expression detection unit 36 detects the facial orientation and facial expression of one or more persons appearing in the image based on the facial features. Facial expressions include, for example, facial movements such as opening and closing of the eyes and opening and closing of the mouth, and refer to the mental state of a person, such as emotions or feelings, that is expressed on the face by the action of facial muscles. In the example of the image 40 in FIG. 2, the facial expression detection unit 36 detects the facial orientation, for example, that the persons a1 to a3 are facing the imaging unit 10, and that the person a4 is facing the opposite direction to the imaging unit 10. The facial expression detection unit 36 also detects the facial expressions of each of the persons a1 to a4. The image processing unit 35 changes the face of one or more persons other than the specified person to an avatar, reflecting the facial orientation and facial expression of the persons a1 to a4 detected by the facial expression detection unit 36. An avatar is a character displayed in the image as an alter ego of the persons a1 to a4 appearing in the image. By reflecting the facial orientation and facial expressions of the people A1 to A4 in the image in the avatar, the privacy of the people A1 to A4 in the image is protected, while the viewer can get a more realistic grasp of the expressions and movements of the people A1 to A4 in the image.

図11を参照して、閲覧者が図3に示す保護者Rであり、人物a1が児童Aである例について説明する。図11の画像40fは、保護者Rが閲覧することのできる画像である。閲覧可否判定部34により所定の人物が人物a1(児童A)であると識別されたため、画像処理部35は、人物a1以外の人物a2~a4の顔をアバター44a~44cに変更する。アバター44a~44cは、それぞれの人物a2~a4の顔の特徴量に基づいて、顔の向きおよび表情を反映して生成される。例えば、人物a2は撮像部10に対して正面を向いて笑っているため、人物a2の顔は正面を向き笑っているアバター44aに変更される。同様に、人物a4は撮像部10の反対側を向いているため、人物a4の顔は後頭部を示すアバター44cに変更される。 With reference to FIG. 11, an example will be described in which the viewer is the guardian R shown in FIG. 3 and the person a1 is child A. Image 40f in FIG. 11 is an image that can be viewed by guardian R. Because the viewing permission determination unit 34 has identified the specific person as person a1 (child A), the image processing unit 35 changes the faces of the people a2 to a4 other than person a1 to avatars 44a to 44c. The avatars 44a to 44c are generated based on the facial features of each of the people a2 to a4, reflecting their facial orientation and facial expression. For example, since person a2 is smiling facing the imaging unit 10, the face of person a2 is changed to avatar 44a, which is smiling facing the front. Similarly, since person a4 is facing away from the imaging unit 10, the face of person a4 is changed to avatar 44c showing the back of the head.

例えば、人物a4のように撮像部10の反対側を向いており、顔の特徴量からどの人物であるかを識別できない場合、閲覧可否判定部34は、人物a4をすべての閲覧者が閲覧できない人物であると判断してもよい。この場合、情報処理装置1Bは、すべての閲覧者に対して、人物a4の顔がアバターに変更された画像を提供することができる。 For example, in the case of person a4, who faces the opposite side of the imaging unit 10 and whose face cannot be identified based on the facial features, the viewing eligibility determination unit 34 may determine that person a4 is a person who cannot be viewed by all viewers. In this case, the information processing device 1B can provide all viewers with an image in which person a4's face has been changed to an avatar.

図12を参照して、情報処理装置1Bの情報処理方法について説明する。図12は、情報処理装置1Bの情報処理方法を説明するためのフローチャートである。なお、図12のステップS11~S15は、図6のフローチャートのステップS1~S5と同様の処理であるため、説明を省略する。 The information processing method of information processing device 1B will be described with reference to FIG. 12. FIG. 12 is a flowchart for describing the information processing method of information processing device 1B. Note that steps S11 to S15 in FIG. 12 are the same processes as steps S1 to S5 in the flowchart in FIG. 6, and therefore description thereof will be omitted.

ステップS16において、制御部30の表情検出部36は、所定の人物a1以外の人物a2~a4の顔の向きおよび表情を検出する。表情検出部36は、ステップS12で取得した人物の識別情報のうち顔の特徴量に基づいて、所定の人物a1以外の人物a2~a4の顔の向きおよび表情を検出することができる。 In step S16, the facial expression detection unit 36 of the control unit 30 detects the facial orientation and facial expression of the persons a2 to a4 other than the specified person a1. The facial expression detection unit 36 can detect the facial orientation and facial expression of the persons a2 to a4 other than the specified person a1 based on the facial features in the person identification information acquired in step S12.

ステップS17において、制御部30の画像処理部35は、所定の人物a1以外の人物a2~a4の顔を、アバター44a~44cに変更する。このとき、画像処理部35は、所定の人物a1以外の人物a2~a4の表情を反映して、アバター44a~44cを生成する。 In step S17, the image processing unit 35 of the control unit 30 changes the faces of the persons a2 to a4 other than the specified person a1 to avatars 44a to 44c. At this time, the image processing unit 35 generates the avatars 44a to 44c by reflecting the facial expressions of the persons a2 to a4 other than the specified person a1.

[効果]
上述した実施の形態によると、以下の効果を奏する。
[effect]
According to the above-described embodiment, the following effects are obtained.

識別情報は、一人または複数の人物の顔の特徴量を含む。制御部30の人物識別部32は、顔の特徴量に基づいて一人または複数の人物a1~a4の顔の向きおよび表情を検出する。制御部30の画像処理部35は、一人または複数の人物a1~a4の顔の向きおよび表情を反映して、所定の人物a1以外の一人または複数の人物a2~a4の顔をアバター44a~44cに変更する。 The identification information includes facial features of one or more people. The person identification unit 32 of the control unit 30 detects the facial orientation and facial expression of one or more people a1 to a4 based on the facial features. The image processing unit 35 of the control unit 30 changes the faces of one or more people a2 to a4 other than the specified person a1 to avatars 44a to 44c to reflect the facial orientation and facial expression of the one or more people a1 to a4.

このような構成により、画像に写る人物a1~a4のプライバシーを保護しつつ、閲覧者は、それぞれの人物a1~a4の表情等をより詳細に把握することができる。 This configuration protects the privacy of the people a1 to a4 in the image, while allowing the viewer to get a more detailed view of the facial expressions of each person a1 to a4.

(実施の形態3)
図13~図15を参照して、実施の形態3について説明する。なお、実施の形態3においては、実施の形態2と同一または同等の構成については同じ符号を付して説明する。また、実施の形態3では、実施の形態2と重複する記載は省略する。
(Embodiment 3)
A third embodiment will be described with reference to Figures 13 to 15. In the third embodiment, the same or equivalent configurations as those in the second embodiment will be denoted by the same reference numerals. In the third embodiment, descriptions that overlap with those in the second embodiment will be omitted.

図13は、実施の形態3にかかる情報処理装置1Bの構成を概略的に示すブロック図である。図14は、撮像部10により取得した画像45の一例を示す概略図である。図15は、実施の形態3における人物の表示を変更した画像45aの一例を示す概略図である。実施の形態3では、制御部30の識別情報取得部31が、識別情報として画像に写る人物の骨格情報を取得する点で実施の形態2と異なる。また、実施の形態3では、図13に示すように、制御部30が動作検出部37を有し、動作検出部37が、骨格情報に基づいて人物の動作を検出する点で実施の形態2と異なる。また、実施の形態3では、制御部30の画像処理部35が、人物の動作を反映して、所定の人物以外の人物の身体をアバターに変更する点で実施の形態2と異なる。 Fig. 13 is a block diagram showing a schematic configuration of an information processing device 1B according to the third embodiment. Fig. 14 is a schematic diagram showing an example of an image 45 acquired by the imaging unit 10. Fig. 15 is a schematic diagram showing an example of an image 45a in which the display of a person in the third embodiment is changed. The third embodiment differs from the second embodiment in that the identification information acquisition unit 31 of the control unit 30 acquires skeletal information of a person appearing in the image as identification information. Also, the third embodiment differs from the second embodiment in that the control unit 30 has a motion detection unit 37, as shown in Fig. 13, which detects the motion of the person based on the skeletal information. Also, the third embodiment differs from the second embodiment in that the image processing unit 35 of the control unit 30 changes the body of a person other than a specified person to an avatar, reflecting the motion of the person.

図14の例では、画像45に5人の人物a11~a15が写っている。識別情報取得部31は、画像45のそれぞれの人物a11~a15の骨格情報を取得する。骨格情報とは、画像に写る人物a11~a15の頭部または関節等の所定の部位の位置を示す情報である。所定の部位には、例えば、頭部、首、膝、肘、手首、足首、または肩などが含まれる。 In the example of FIG. 14, five people a11 to a15 appear in image 45. The identification information acquisition unit 31 acquires skeletal information for each of people a11 to a15 in image 45. Skeletal information is information that indicates the position of a specific part, such as the head or joints, of people a11 to a15 appearing in the image. The specific part includes, for example, the head, neck, knees, elbows, wrists, ankles, or shoulders.

動作検出部37は、識別情報取得部31が取得した骨格情報に基づいて、画像45に写る人物a11~a15の動作を検出する。動作検出部37は、所定の部位の位置の変化から、人物a11~a15の身体の動きを動作として検出することができる。画像処理部35は、検出した動作を反映して、所定の人物a11~a15の身体をアバターに変更する。 The motion detection unit 37 detects the motions of the people a11 to a15 appearing in the image 45 based on the skeletal information acquired by the identification information acquisition unit 31. The motion detection unit 37 can detect the bodily movements of the people a11 to a15 as motions from changes in the positions of specific body parts. The image processing unit 35 changes the bodies of the specific people a11 to a15 into avatars that reflect the detected motions.

図15を参照して、閲覧者が図3に示す保護者Uであり、人物a12が児童Dである例について説明する。図14の画像45aは、保護者Uが閲覧することのできる画像である。閲覧可否判定部34により所定の人物が人物a12(児童D)であると識別されたため、画像処理部35は、人物a12以外の人物a11、a13~a15の身体をアバター46a~46dに変更する。アバター46a~46dは、動作検出部37により検出されたそれぞれ人物a11、a13~a15の動作を反映して生成される。 With reference to FIG. 15, an example will be described in which the viewer is guardian U shown in FIG. 3, and person a12 is child D. Image 45a in FIG. 14 is an image that can be viewed by guardian U. Because the viewing permission determination unit 34 identifies the specific person as person a12 (child D), the image processing unit 35 changes the bodies of persons a11 and a13 to a15 other than person a12 to avatars 46a to 46d. Avatars 46a to 46d are generated reflecting the movements of persons a11 and a13 to a15, respectively, detected by the movement detection unit 37.

図16を参照して、情報処理装置1Bの情報処理方法について説明する。図16は、情報処理装置1Bの情報処理方法を説明するためのフローチャートである。なお、図16のステップS21、S23~S25はそれぞれ、図12のステップS11、S13~S15と同様の処理であるため、説明を省略する。 The information processing method of information processing device 1B will be described with reference to FIG. 16. FIG. 16 is a flowchart for describing the information processing method of information processing device 1B. Note that steps S21 and S23 to S25 in FIG. 16 are similar to steps S11 and S13 to S15 in FIG. 12, respectively, and therefore description thereof will be omitted.

ステップS22において、制御部30の識別情報取得部31は、所定の人物a12以外の人物a11、a13~a15の骨格情報を取得する。 In step S22, the identification information acquisition unit 31 of the control unit 30 acquires skeletal information of the persons a11, a13 to a15 other than the specified person a12.

ステップS26において、制御部30の動作検出部は、骨格情報に基づいて、人物a11、a13~a15の動作を検出する。 In step S26, the movement detection unit of the control unit 30 detects the movements of people a11, a13 to a15 based on the skeletal information.

ステップS27において、制御部30の画像処理部35は、人物a11、a13~a15の動作を反映したアバター46a~46dを生成して、人物a11、a13~a15の身体をアバター46a~46dに変更する。 In step S27, the image processing unit 35 of the control unit 30 generates avatars 46a to 46d that reflect the movements of the people a11, a13 to a15, and changes the bodies of the people a11, a13 to a15 to the avatars 46a to 46d.

[効果]
上述した実施の形態によると、以下の効果を奏することができる。
[effect]
According to the above-described embodiment, the following effects can be obtained.

識別情報は、一人または複数の人物の骨格情報を含む。制御部30の動作検出部37は、骨格情報に基づいて一人または複数の人物の動作を検出する。制御部30の画像処理部35は、動作を反映して所定の人物以外の一人または複数の人物の身体をアバターに変更する。 The identification information includes skeletal information of one or more people. The movement detection unit 37 of the control unit 30 detects the movement of the one or more people based on the skeletal information. The image processing unit 35 of the control unit 30 changes the bodies of one or more people other than the specified person to avatars to reflect the movement.

このような構成により、所定の人物以外の人物の身体をアバターに変更することでプライバシー保護することができる。さらにアバターに一人または複数の人物の動作を反映することで、閲覧者が画像を閲覧して一人または複数の人物の様子をよりリアルに把握することができる。 With this configuration, privacy can be protected by changing the bodies of people other than a specified person into avatars. Furthermore, by reflecting the movements of one or more people in an avatar, viewers can view the image and get a more realistic understanding of the appearance of one or more people.

(実施の形態4)
図17を参照して、実施の形態4について説明する。なお、実施の形態4においては、実施の形態1と同一または同等の構成については同じ符号を付して説明する。また、実施の形態4では、実施の形態1と重複する記載は省略する。
(Embodiment 4)
A fourth embodiment will be described with reference to Fig. 17. In the fourth embodiment, the same or equivalent configurations as those in the first embodiment will be denoted by the same reference numerals. In the fourth embodiment, descriptions that overlap with those in the first embodiment will be omitted.

図17は、実施の形態4にかかる情報処理装置1Cの構成を概略的に示すブロック図である。実施の形態4では、図17に示すように、通信部21が収音部70により収音された音声を取得する点で、実施の形態1と異なる。また、制御部30が、音声処理部38を有する点で、実施の形態1と異なる。 Fig. 17 is a block diagram showing a schematic configuration of an information processing device 1C according to embodiment 4. As shown in Fig. 17, embodiment 4 differs from embodiment 1 in that the communication unit 21 acquires the sound picked up by the sound pickup unit 70. Also, embodiment 4 differs from embodiment 1 in that the control unit 30 has a sound processing unit 38.

本実施の形態では、通信部21は、収音部70により収音された音声を取得する収音部70は、例えば、撮像部10により生成された画像が動画である場合に、画像に写る一人または複数の人物の音声を収音し、収音した音声を電気信号に変換するマイクなどの装置である。撮像部10による画像の生成と同時に、収音部70により音声の収音が実行され、通信部21は、画像と音声とを同時に取得することができる。 In this embodiment, the communication unit 21 acquires the sound picked up by the sound pickup unit 70. The sound pickup unit 70 is, for example, a device such as a microphone that picks up the sound of one or more people appearing in an image when the image generated by the imaging unit 10 is a video image, and converts the picked up sound into an electrical signal. At the same time that the imaging unit 10 generates an image, the sound pickup unit 70 picks up the sound, and the communication unit 21 can acquire the image and sound simultaneously.

本実施の形態では、識別情報取得部31が、識別情報として一人または複数の人物の音声情報を取得する。音声情報は、例えば、それぞれの人物の声紋を含む情報であり、それぞれの人物が誰であるかを特定することのできる情報である。 In this embodiment, the identification information acquisition unit 31 acquires voice information of one or more people as identification information. The voice information is information that includes, for example, the voiceprint of each person, and is information that can identify who each person is.

制御部30の人物識別部32は、音声情報に基づいて、一人または複数の人物を識別する。すなわち、制御部30の人物識別部32は、収音した音声のうち、どの音声がどの人物のものであるかを識別する。 The person identification unit 32 of the control unit 30 identifies one or more people based on the audio information. In other words, the person identification unit 32 of the control unit 30 identifies which voice, among the collected voices, belongs to which person.

制御部30の音声処理部38は、音声処理により、音声に含まれる所定の人物以外の声を変更する。音声処理部38は、例えば、収音した音声を加工して、の高さを変更することにより、所定の人物以外の声を変更することができる。あるいは、音声処理部38は、所定の人物以外の声を消音することで、所定の人物以外の声を変更することができる。 The audio processing unit 38 of the control unit 30 uses audio processing to change the voices contained in the audio other than those of the specified person. The audio processing unit 38 can change the voices of the other than the specified person, for example, by processing the collected audio and changing the pitch. Alternatively, the audio processing unit 38 can change the voices of the other than the specified person by silencing the voices of the other than the specified person.

図18を参照して、情報処理装置1Cの情報処理方法について説明する。図18は、図17の情報処理装置1Cの情報処理方法を説明するためのフローチャートである。なお、図18のステップS31、S35~S37はそれぞれ、図6で説明したステップS1~S6と同様の処理であるため、説明を省略する。 The information processing method of information processing device 1C will be described with reference to FIG. 18. FIG. 18 is a flowchart for describing the information processing method of information processing device 1C of FIG. 17. Note that steps S31 and S35 to S37 in FIG. 18 are similar to steps S1 to S6 described in FIG. 6, respectively, and therefore description thereof will be omitted.

ステップS32において、収音部70は、画像に写る一人または複数の人物の音声を取得する。 In step S32, the sound pickup unit 70 captures the voices of one or more people appearing in the image.

ステップS33において、制御部30の識別情報取得部31は、画像に写る人物の識別情報を取得する。識別情報取得部31は、例えば、取得した画像におけるそれぞれの人物の顔の特徴量と、取得した音声におけるそれぞれの人物の声紋と、を取得する。 In step S33, the identification information acquisition unit 31 of the control unit 30 acquires identification information of the people appearing in the images. The identification information acquisition unit 31 acquires, for example, the facial features of each person in the acquired images and the voiceprints of each person in the acquired audio.

ステップS34において、制御部30の人物識別部32は、画像に写る一人または複数の人物を識別し、さらに、音声における一人または複数の人物を識別する。人物識別は、例えば、あらかじめ記憶部20に記憶しておいたそれぞれの人物と顔の特徴量および声紋などの識別情報とを関連付けるデータを、取得した識別情報と照合することにより、それぞれの人物を識別する。 In step S34, the person identification unit 32 of the control unit 30 identifies one or more people in the image, and further identifies one or more people in the voice. For example, person identification is performed by comparing data previously stored in the storage unit 20 that associates each person with identification information such as facial features and voiceprints, with the acquired identification information to identify each person.

ステップS38において、制御部30の音声処理部38は、所定の人物以外の人物の声を変更する。音声処理部38は、例えば、所定の人物以外の人物の声の高さを変えることにより、声を変更する。 In step S38, the voice processing unit 38 of the control unit 30 changes the voices of people other than the specified person. The voice processing unit 38 changes the voices, for example, by changing the pitch of the voices of people other than the specified person.

[効果]
上述した実施の形態によると、以下の効果を奏する
[effect]
The above-described embodiment provides the following advantages:

情報処理装置1Cは、さらに、音声を取得する収音部70を備える。制御部30の識別情報取得部31は、識別情報として、一人または複数の人物の音声情報を取得する。制御部30の人物識別部32は、音声情報に基づいて、一人または複数の人物を識別する。制御部30の音声処理部38は、音声処理により、音声に含まれる所定の人物以外の一人または複数の人物の声を変更する。 The information processing device 1C further includes a sound collection unit 70 that acquires sound. The identification information acquisition unit 31 of the control unit 30 acquires sound information of one or more people as identification information. The person identification unit 32 of the control unit 30 identifies one or more people based on the sound information. The sound processing unit 38 of the control unit 30 changes the voice of one or more people other than a specified person contained in the sound by sound processing.

このような構成により、画像に加えて音声も変更することで、プライバシーの保護を強化することができる。 This configuration allows for enhanced privacy protection by modifying audio in addition to images.

(実施の形態5)
図19を参照して、実施の形態5について説明する。なお、実施の形態5においては、実施の形態3と同一または同等の構成については同じ符号を付して説明する。また、実施の形態5では、実施の形態3と重複する記載は省略する。
(Embodiment 5)
A fifth embodiment will be described with reference to Fig. 19. In the fifth embodiment, the same or equivalent configurations as those in the third embodiment will be denoted by the same reference numerals. In the fifth embodiment, descriptions that overlap with those in the third embodiment will be omitted.

図19は、実施の形態5の情報処理装置の情報処理方法を説明するためのフローチャートである。情報処理装置の構成は、実施の形態3で説明した情報処理装置1Bと同様の構成であるため、説明を省略する。実施の形態5では、図19に示すように、制御部30の動作検出部37が、所定の人物の所定の表情または所定の動作を検出する点で、実施の形態3と異なる。また、実施の形態5では、図19に示すように、制御部30の画像処理部35が、撮像部10が生成した画像のうち、所定の表情または所定の動作が記録されている部分を抽出してダイジェスト画像を生成する点で、実施の形態3と異なる。 Figure 19 is a flowchart for explaining an information processing method of the information processing device of embodiment 5. The configuration of the information processing device is similar to that of the information processing device 1B described in embodiment 3, and therefore the description is omitted. In embodiment 5, as shown in Figure 19, the motion detection unit 37 of the control unit 30 detects a predetermined facial expression or a predetermined motion of a predetermined person, which is different from embodiment 3. In addition, in embodiment 5, as shown in Figure 19, the image processing unit 35 of the control unit 30 extracts a portion of the image generated by the imaging unit 10 in which a predetermined facial expression or a predetermined motion is recorded, and generates a digest image, which is different from embodiment 3.

図19を参照して、実施の形態5にかかる情報処理装置の情報処理方法を説明する。なお、図19のステップS41~S47は、図16で説明した実施の形態3のステップS21~S27と同様の処理であるため、説明を省略する。 The information processing method of the information processing device according to the fifth embodiment will be described with reference to FIG. 19. Note that steps S41 to S47 in FIG. 19 are the same as steps S21 to S27 in the third embodiment described with reference to FIG. 16, and therefore will not be described here.

ステップS48において、制御部30の動作検出部37は、画像処理を施した画像のうち、所定の人物の所定の表情または所定の動作を検出する。所定の表情とは、例えば、所定の人物の笑顔または泣き顔等を含む表情である。所定の表情は、識別情報取得部31により取得された顔の特徴量に基づいて検出することができる。所定の動作とは、例えば、お座り、ハイハイ、または、つかまり立ちなどの動作を含む。所定の動作は、識別情報取得部31により取得された骨格情報に基づいて検出することができる。 In step S48, the movement detection unit 37 of the control unit 30 detects a predetermined facial expression or a predetermined movement of a predetermined person from the image that has been subjected to image processing. The predetermined facial expression is, for example, a facial expression including a smiling or crying face of the predetermined person. The predetermined facial expression can be detected based on the facial features acquired by the identification information acquisition unit 31. The predetermined movement includes, for example, movements such as sitting, crawling, or standing up. The predetermined movement can be detected based on the skeletal information acquired by the identification information acquisition unit 31.

ステップS49において、制御部30の画像処理部35は、撮像部10が生成した画像のうち所定の表情または所定の動作が記録されている部分を抽出してダイジェスト画像を生成し、記憶部20に記憶する。 In step S49, the image processing unit 35 of the control unit 30 extracts a portion of the image generated by the imaging unit 10 in which a specified facial expression or a specified action is recorded, generates a digest image, and stores it in the memory unit 20.

所定の人物の所定の表情または動作が記録されている部分を抽出してダイジェスト画像を生成することで、閲覧者は、情報処理装置により提供された画像を自分の子どもなどの閲覧可能な人物の成長記録として閲覧することができる。このとき、閲覧者が閲覧可能な人物以外は、表示が変更されているため、画像に写る所定の人物以外の人物のプライバシーを保護することができる。 By extracting the portion in which a specific facial expression or action of a specific person is recorded and generating a digest image, the viewer can view the image provided by the information processing device as a growth record of a viewable person such as his/her child. At this time, the display of people other than the person viewable by the viewer is changed, so the privacy of people other than the specific person appearing in the image can be protected.

[効果]
上述した実施の形態によると、以下の効果を奏する。
[effect]
According to the above-described embodiment, the following effects are obtained.

制御部30の動作検出部37は、顔の特徴量に基づいて所定の人物の所定の表情を検出する。制御部30の画像処理部35は、画像のうち所定の表情が記録されている部分を抽出してダイジェスト画像を生成する。 The motion detection unit 37 of the control unit 30 detects a specific facial expression of a specific person based on the facial features. The image processing unit 35 of the control unit 30 extracts a portion of the image in which the specific facial expression is recorded, and generates a digest image.

制御部30の動作検出部37は、骨格情報に基づいて所定の人物の所定の動作を検出する。制御部30の画像処理部35は、画像のうち所定の動作が記録されている部分を抽出してダイジェスト画像を生成する。 The motion detection unit 37 of the control unit 30 detects a predetermined motion of a predetermined person based on the skeletal information. The image processing unit 35 of the control unit 30 extracts a portion of the image in which the predetermined motion is recorded, and generates a digest image.

このような構成により、閲覧者に対して、閲覧者が閲覧可能な人物の所定の表情または所定の動作を抽出したダイジェスト画像を提供することができる。このとき、閲覧者が閲覧可能な所定の人物以外の人物の表示は変更されているため、画像に写る所定の人物以外の人物のプライバシーを保護することができる。 With this configuration, it is possible to provide the viewer with a digest image that extracts a specific facial expression or a specific action of a person viewable by the viewer. At this time, the display of people other than the specific person viewable by the viewer is changed, so the privacy of people other than the specific person appearing in the image can be protected.

なお、上述した実施の形態では、制御部30の動作検出部37が、所定の表情および所定の動作を検出する例について説明したが、動作検出部37は、所定の表情または所定の動作のうちいずれか一方を検出できれば良い。 In the above embodiment, an example has been described in which the movement detection unit 37 of the control unit 30 detects a predetermined facial expression and a predetermined movement, but it is sufficient for the movement detection unit 37 to detect either a predetermined facial expression or a predetermined movement.

(実施の形態の概要)
(1)本開示の情報処理装置は、一人または複数の人物を撮像した動画または静止画を含む画像を取得する通信部と、画像における一人または複数の人物と画像を閲覧可能な複数の閲覧者とを対応付けるリストを記憶する記憶部と、画像に対して処理を実行する制御部と、を備え、制御部は、画像から前記一人または複数の人物に関する識別情報を取得し、識別情報に基づいて、画像に写る前記一人または複数の人物を識別し、複数の閲覧者の認証情報を取得して、認証情報に基づいて複数の閲覧者を識別し、リストに基づいて、一人または複数の人物の中から所定の閲覧者が閲覧可能な所定の人物を判定し、画像処理により、画像に写る所定の人物以外の一人または複数の人物の表示を変更する。
(Overview of the embodiment)
(1) The information processing device disclosed herein includes a communication unit that acquires images including video or still images of one or more people, a memory unit that stores a list that matches one or more people in the image with multiple viewers who can view the image, and a control unit that performs processing on the image, wherein the control unit acquires identification information about the one or more people from the image, identifies the one or more people appearing in the image based on the identification information, acquires authentication information for the multiple viewers and identifies the multiple viewers based on the authentication information, determines a specific person from the one or more people who can be viewed by a specific viewer based on the list, and changes the display of one or more people other than the specific person appearing in the image by image processing.

(2)(1)の情報処理装置において、画像に写る所定の人物以外の一人または複数の人物の表示を変更することは、一人または複数の人物に予め用意された画像を上書きすること、一人または複数の人物にモザイク処理を施すこと、または、一人または複数の人物を所定の色で塗りつぶすこと、のいずれかを含んでもよい。 (2) In the information processing device of (1), changing the display of one or more people other than a specified person appearing in an image may include overwriting the one or more people with a prepared image, applying a pixelated process to the one or more people, or painting the one or more people with a specified color.

(3)(1)または(2)の情報処理装置において、識別情報は、一人または複数の人物の顔の特徴量を含み、制御部は、さらに、顔の特徴量に基づいて一人または複数の人物の顔の向きおよび表情を検出し、画像に写る所定の人物以外の複数の人物の表示を変更することは、一人または複数の人物の顔の向きおよび表情を反映して所定の人物以外の一人または複数の人物の顔をアバターに変更すること、を含んでもよい。 (3) In the information processing device of (1) or (2), the identification information includes facial features of one or more persons, and the control unit further detects a facial orientation and facial expression of the one or more persons based on the facial features, and changing the display of the multiple persons other than the specified person appearing in the image may include changing the faces of the one or more persons other than the specified person to avatars to reflect the facial orientation and facial expression of the one or more persons.

(4)(1)から(3)のいずれか1つの情報処理装置において、識別情報は、一人または複数の人物の骨格情報を含み、制御部は、骨格情報に基づいて一人または複数の人物の動作を検出し、動作を反映して所定の人物以外の一人または複数の人物の身体をアバターに変更してもよい。 (4) In any one of the information processing devices (1) to (3), the identification information may include skeletal information of one or more persons, and the control unit may detect the motion of the one or more persons based on the skeletal information and change the bodies of one or more persons other than the specified person to avatars to reflect the motion.

(5)(1)から(4)のいずれか1つの情報処理装置において、認証情報は、情報処理装置にアクセスするための閲覧者のID情報、または閲覧者の所有する情報処理装置にアクセス可能な電子機器を示す端末固有情報を含んでもよい。 (5) In any one of the information processing devices (1) to (4), the authentication information may include ID information of the viewer for accessing the information processing device, or terminal-specific information indicating an electronic device that can access the information processing device owned by the viewer.

(6)(1)から(5)のいずれか1つの情報処理装置において、通信部は、収音部により収音された音声をさらに取得し、識別情報は、一人または複数の人物の音声情報を含み、制御部は、音声情報に基づいて、一人または複数の人物を識別し、音声処理により、音声に含まれる所定の人物以外の一人または複数の人物の声を変更してもよい。 (6) In any one of the information processing devices (1) to (5), the communication unit may further acquire the sound picked up by the sound pickup unit, the identification information may include sound information of one or more persons, and the control unit may identify the one or more persons based on the sound information, and may change the voice of one or more persons other than the specified person contained in the sound by sound processing.

(7)(3)から(6)のいずれか1つの情報処理装置において、制御部は、顔の特徴量に基づいて所定の人物の所定の表情を検出し、画像のうち所定の表情が記録されている部分を抽出してダイジェスト画像を生成してもよい。 (7) In any one of the information processing devices (3) to (6), the control unit may detect a predetermined facial expression of a predetermined person based on facial features, and generate a digest image by extracting a portion of the image in which the predetermined facial expression is recorded.

(8)(4)から(7)のいずれか1つの情報処理装置において、制御部は、骨格情報に基づいて所定の人物の所定の動作を検出し、画像のうち所定の動作が記録されている部分を抽出してダイジェスト画像を生成してもよい。 (8) In any one of the information processing devices (4) to (7), the control unit may detect a predetermined motion of a predetermined person based on the skeletal information, and extract a portion of the image in which the predetermined motion is recorded to generate a digest image.

(9)本開示の情報処理システムは、一人または複数の人物を撮像して動画または静止画を含む画像を生成する撮像部と、撮像部から画像を受信して、画像処理を実行するサーバと、を備え、サーバは、画像から前記一人または複数の人物に関する識別情報を取得し、識別情報に基づいて、画像に写る前記一人または複数の人物を識別し、複数の閲覧者の認証情報を取得して、認証情報に基づいて前記複数の閲覧者を識別し、一人または複数の人物と画像を閲覧可能な複数の閲覧者とを対応付けるリストに基づいて、一人または複数の人物の中から所定の閲覧者が閲覧可能な所定の人物を判定し、画像処理により、画像に写る所定の人物以外の一人または複数の人物の表示を変更する。 (9) The information processing system of the present disclosure includes an imaging unit that captures an image of one or more people to generate an image including a video or still image, and a server that receives the image from the imaging unit and performs image processing, and the server acquires identification information related to the one or more people from the image, identifies the one or more people appearing in the image based on the identification information, acquires authentication information for multiple viewers and identifies the multiple viewers based on the authentication information, determines a specific person from the one or more people that can be viewed by a specific viewer based on a list that associates the one or more people with multiple viewers who can view the image, and changes the display of one or more people other than the specific person appearing in the image by image processing.

(10)本開示の方法は、一人または複数の人物を撮像して動画または静止画を含む画像を取得するステップと、画像に写る一人または複数の人物に関する識別情報を取得するするステップと、識別情報に基づいて、画像に写る一人または複数の人物を識別するステップと、画像を閲覧可能な複数の閲覧者の認証情報を取得して、認証情報に基づいて複数の閲覧者を識別するステップと、一人または複数の人物と複数の閲覧者とを対応付けるリストに基づいて、一人または複数の人物の中から所定の閲覧者が閲覧可能な所定の人物を判定するステップと、画像処理により、画像に写る所定の人物以外の一人または複数の人物の表示を変更するステップと、を含む。 (10) The method disclosed herein includes the steps of capturing an image of one or more people, including a video or a still image, acquiring identification information about the one or more people appearing in the image, identifying the one or more people appearing in the image based on the identification information, acquiring authentication information of multiple viewers who can view the image and identifying the multiple viewers based on the authentication information, determining a specific person who can be viewed by a specific viewer from among the one or more people based on a list that associates the one or more people with the multiple viewers, and changing the display of one or more people other than the specific person appearing in the image by image processing.

(11)本開示のプログラムは、コンピュータに(10)の方法を実行させる。 (11) The program disclosed herein causes a computer to execute the method of (10).

(12)本開示のコンピュータ読み取り可能な記録媒体は、コンピュータに(10)の方法を実行させるためのプログラムを記録する。 (12) The computer-readable recording medium of the present disclosure records a program for causing a computer to execute the method of (10).

本開示は、プライバシー保護のための画像処理に広く適用することができる。 This disclosure can be broadly applied to image processing for privacy protection.

1、1A~1C 情報処理装置
10 撮像部
20 記憶部
30 制御部
40、40a~40f、41a~41b、45、45a 画像
42 モザイク処理
43 色
44a~44c、46a~46d アバター
50 リスト
60 サーバ
70 収音部
100 情報処理システム
Reference Signs List 1, 1A to 1C Information processing device 10 Imaging unit 20 Storage unit 30 Control unit 40, 40a to 40f, 41a to 41b, 45, 45a Image 42 Mosaic processing 43 Color 44a to 44c, 46a to 46d Avatar 50 List 60 Server 70 Sound collection unit 100 Information processing system

Claims (12)

一人または複数の人物を撮像した動画または静止画を含む画像を取得する通信部と、
前記画像における前記一人または複数の人物と前記画像を閲覧可能な複数の閲覧者とを対応付けるリストを記憶する記憶部と、
前記画像に対して画像処理を実行する制御部と、
を備え、
前記制御部は、
前記画像から前記一人または複数の人物に関する識別情報を取得し、
前記識別情報に基づいて、前記画像に写る前記一人または複数の人物を識別し、
前記複数の閲覧者の認証情報を取得して、前記認証情報に基づいて前記複数の閲覧者を識別し、
前記リストに基づいて、前記一人または複数の人物の中から所定の閲覧者が閲覧可能な所定の人物を判定し、
画像処理により、前記画像に写る前記所定の人物以外の前記一人または複数の人物の表示を変更する、
情報処理装置。
A communication unit for acquiring images including moving images or still images of one or more people;
a storage unit that stores a list that associates the one or more people in the image with a plurality of viewers who can view the image;
A control unit that performs image processing on the image;
Equipped with
The control unit is
obtaining identifying information about the person or persons from the image;
identifying the person or people appearing in the image based on the identification information;
obtaining authentication information for the plurality of viewers and identifying the plurality of viewers based on the authentication information;
determining a specific person who is available for viewing by the specific viewer from among the one or more people based on the list;
changing the display of the one or more people other than the predetermined person appearing in the image by image processing;
Information processing device.
前記画像に写る前記所定の人物以外の前記一人または複数の人物の表示を変更することは、前記一人または複数の人物に予め用意された画像を上書きすること、前記一人または複数の人物にモザイク処理を施すこと、または、前記一人または複数の人物を所定の色で塗りつぶすこと、のいずれかを含む、
請求項1に記載の情報処理装置。
Changing the display of the one or more people other than the specified person appearing in the image includes any one of overwriting the one or more people with a prepared image, applying a mosaic process to the one or more people, or filling the one or more people with a specified color.
The information processing device according to claim 1 .
前記識別情報は、前記一人または複数の人物の顔の特徴量を含み、
前記制御部は、さらに、前記顔の特徴量に基づいて前記一人または複数の人物の顔の向きおよび表情を検出し、
前記画像に写る前記所定の人物以外の前記複数の人物の表示を変更することは、前記一人または複数の人物の顔の向きおよび表情を反映して前記所定の人物以外の前記一人または複数の人物の顔をアバターに変更すること、を含む、
請求項1に記載の情報処理装置。
the identification information includes facial features of the one or more persons;
The control unit further detects a facial orientation and an expression of the one or more persons based on the facial feature amount,
Changing the display of the plurality of people other than the predetermined person appearing in the image includes changing the face of the one or more people other than the predetermined person to an avatar to reflect the facial direction and facial expression of the one or more people.
The information processing device according to claim 1 .
前記識別情報は、前記一人または複数の人物の骨格情報を含み、
前記制御部は、
前記骨格情報に基づいて前記一人または複数の人物の動作を検出し、
前記動作を反映して前記所定の人物以外の前記一人または複数の人物の身体をアバターに変更する、
請求項3に記載の情報処理装置。
the identification information includes skeletal information of the one or more persons;
The control unit is
Detecting a motion of the one or more persons based on the skeletal information;
changing the body of the one or more persons other than the predetermined person into an avatar to reflect the action;
The information processing device according to claim 3 .
前記認証情報は、前記情報処理装置にアクセスするための前記閲覧者のID情報、または前記閲覧者の所有する前記情報処理装置にアクセス可能な電子機器を示す端末固有情報を含む、
請求項1に記載の情報処理装置。
The authentication information includes ID information of the viewer for accessing the information processing device, or terminal specific information indicating an electronic device owned by the viewer that can access the information processing device.
The information processing device according to claim 1 .
前記通信部は、収音部により収音された音声をさらに取得し、
前記識別情報は、前記一人または複数の人物の音声情報を含み、
前記制御部は、
前記音声情報に基づいて、前記一人または複数の人物を識別し、
音声処理により、前記音声に含まれる所定の人物以外の前記一人または複数の人物の声を変更する、
請求項1に記載の情報処理装置。
The communication unit further acquires a sound collected by a sound collection unit,
the identification information includes audio information of the person or persons;
The control unit is
identifying the one or more persons based on the audio information;
changing the voice of the one or more people other than the predetermined person included in the audio by audio processing;
The information processing device according to claim 1 .
前記制御部は、
前記顔の特徴量に基づいて前記所定の人物の所定の表情を検出し、
前記画像のうち前記所定の表情が記録されている部分を抽出してダイジェスト画像を生成する、
請求項3に記載の情報処理装置。
The control unit is
detecting a predetermined facial expression of the predetermined person based on the facial feature amount;
extracting a portion of the image in which the predetermined facial expression is recorded, and generating a digest image;
The information processing device according to claim 3 .
前記制御部は、
前記骨格情報に基づいて前記所定の人物の所定の動作を検出し、
前記画像のうち前記所定の動作が記録されている部分を抽出してダイジェスト画像を生成する、
請求項4に記載の情報処理装置。
The control unit is
Detecting a predetermined motion of the predetermined person based on the skeleton information;
extracting a portion of the image in which the predetermined action is recorded, and generating a digest image;
The information processing device according to claim 4.
一人または複数の人物を撮像して動画または静止画を含む画像を生成する撮像部と、
前記撮像部から前記画像を受信して、画像処理を実行するサーバと、
を備え、
前記サーバは、
前記画像から前記一人または複数の人物に関する識別情報を取得し、
前記識別情報に基づいて、前記画像に写る前記一人または複数の人物を識別し、
前記複数の閲覧者の認証情報を取得して、前記認証情報に基づいて前記複数の閲覧者を識別し、
前記一人または複数の人物と前記画像を閲覧可能な複数の閲覧者とを対応付けるリストに基づいて、前記一人または複数の人物の中から所定の閲覧者が閲覧可能な所定の人物を判定し、
画像処理により、前記画像に写る前記所定の人物以外の前記一人または複数の人物の表示を変更する、
情報処理システム。
an imaging unit that captures an image of one or more people to generate an image including a moving image or a still image;
a server that receives the image from the imaging unit and executes image processing;
Equipped with
The server,
obtaining identifying information about the person or persons from the image;
identifying the person or people appearing in the image based on the identification information;
obtaining authentication information for the plurality of viewers and identifying the plurality of viewers based on the authentication information;
determining a specific person who can view the image from among the one or more people based on a list that associates the one or more people with a multiple viewers who can view the image;
changing the display of the one or more people other than the predetermined person appearing in the image by image processing;
Information processing system.
一人または複数の人物を撮像した動画または静止画を含む画像を取得するステップと、
前記画像に写る前記一人または複数の人物に関する識別情報を取得するするステップと、
前記識別情報に基づいて、前記画像に写る前記一人または複数の人物を識別するステップと、
前記画像を閲覧可能な複数の閲覧者の認証情報を取得して、前記認証情報に基づいて前記複数の閲覧者を識別するステップと、
前記一人または複数の人物と前記複数の閲覧者とを対応付けるリストに基づいて、前記一人または複数の人物の中から所定の閲覧者が閲覧可能な所定の人物を判定するステップと、
画像処理により、前記画像に写る前記所定の人物以外の前記一人または複数の人物の表示を変更するステップと、
を含む、
方法。
acquiring images, including video or still images, of one or more people;
obtaining identification information for the one or more people depicted in the image;
identifying the one or more people appearing in the image based on the identification information;
acquiring authentication information of a plurality of viewers who are permitted to view the image, and identifying the plurality of viewers based on the authentication information;
determining a specific person who can be viewed by a specific viewer from among the one or more persons based on a list that associates the one or more persons with the multiple viewers;
modifying the display of the one or more people other than the predetermined person appearing in the image by image processing;
Including,
method.
コンピュータに請求項10に記載の方法を実行させるプログラム。 A program for causing a computer to execute the method according to claim 10. コンピュータに請求項10に記載の方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium having a program recorded thereon for causing a computer to execute the method according to claim 10.
JP2023178825A 2023-10-17 2023-10-17 Information processing device, information processing system, method, program, and recording medium Pending JP2025068806A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023178825A JP2025068806A (en) 2023-10-17 2023-10-17 Information processing device, information processing system, method, program, and recording medium
PCT/JP2024/028520 WO2025083979A1 (en) 2023-10-17 2024-08-08 Information processing device, information processing system, method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023178825A JP2025068806A (en) 2023-10-17 2023-10-17 Information processing device, information processing system, method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2025068806A true JP2025068806A (en) 2025-04-30

Family

ID=95448136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023178825A Pending JP2025068806A (en) 2023-10-17 2023-10-17 Information processing device, information processing system, method, program, and recording medium

Country Status (2)

Country Link
JP (1) JP2025068806A (en)
WO (1) WO2025083979A1 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8253770B2 (en) * 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
JP2010147773A (en) * 2008-12-18 2010-07-01 Olympus Imaging Corp Camera
JP6077655B2 (en) * 2013-06-11 2017-02-08 シャープ株式会社 Shooting system
KR102798516B1 (en) * 2017-05-16 2025-04-23 애플 인크. Emoji recording and sending
EP3734551A4 (en) * 2017-12-27 2020-12-30 Fujitsu Limited EXTRACTION PROGRAM, EXTRACTION METHOD AND INFORMATION PROCESSING DEVICE
CN110446105B (en) * 2019-09-20 2021-11-16 网易(杭州)网络有限公司 Video encryption and decryption method and device
JP2022158701A (en) * 2021-04-02 2022-10-17 三菱ケミカルグループ株式会社 program, method, information processing device
JP7130290B2 (en) * 2020-10-27 2022-09-05 株式会社I’mbesideyou information extractor

Also Published As

Publication number Publication date
WO2025083979A1 (en) 2025-04-24

Similar Documents

Publication Publication Date Title
US20200193615A1 (en) Computer vision based monitoring system and method
Alharbi et al. I can't be myself: effects of wearable cameras on the capture of authentic behavior in the wild
JP4877762B2 (en) Facial expression guidance device, facial expression guidance method, and facial expression guidance system
US20200380299A1 (en) Recognizing People by Combining Face and Body Cues
JP2007213181A (en) Privacy protection image generation device
JP6649005B2 (en) Robot imaging system and image management method
KR20150070358A (en) Method relating to presence granularity with augmented reality
US11216648B2 (en) Method and device for facial image recognition
JP2019047234A (en) Information processing device, information processing method, and program
JPWO2017061149A1 (en) Information processing apparatus, information processing method, and program
CN109151642A (en) A kind of intelligent earphone, intelligent earphone processing method, electronic equipment and storage medium
WO2018201121A1 (en) Computer vision based monitoring system and method
CN111260899A (en) Intelligent visual capture reminding AR device, reminding system and reminding method
JP6211125B2 (en) Image processing system
CN114967937A (en) Virtual human motion generation method and system
TW202030631A (en) Information processing method
JP2025068806A (en) Information processing device, information processing system, method, program, and recording medium
WO2020122463A1 (en) Dementia patient training system using virtual reality
JP7206741B2 (en) HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM
JP6922768B2 (en) Information processing device
US11227148B2 (en) Information processing apparatus, information processing method, information processing program, and information processing system
US20200066116A1 (en) Information processing apparatus, information processing method, and program
JP2020174267A (en) Information processing device, control method of the same, and program
JP6859641B2 (en) Evaluation system, information processing equipment and programs
JP6758351B2 (en) Image management system and image management method