[go: up one dir, main page]

JP2019170180A - Pet moving image analyzer, pet moving image analysis system, pet moving image analysis method and program - Google Patents

Pet moving image analyzer, pet moving image analysis system, pet moving image analysis method and program Download PDF

Info

Publication number
JP2019170180A
JP2019170180A JP2018059747A JP2018059747A JP2019170180A JP 2019170180 A JP2019170180 A JP 2019170180A JP 2018059747 A JP2018059747 A JP 2018059747A JP 2018059747 A JP2018059747 A JP 2018059747A JP 2019170180 A JP2019170180 A JP 2019170180A
Authority
JP
Japan
Prior art keywords
pet
video
unit
event
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018059747A
Other languages
Japanese (ja)
Other versions
JP7154024B2 (en
Inventor
中村 剛
Takeshi Nakamura
中村  剛
千恵子 廣渡
Chieko Hirowatari
千恵子 廣渡
山田 尚史
Hisafumi Yamada
尚史 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PKSHA Technology Inc
Tokyo Electric Power Co Holdings Inc
Original Assignee
PKSHA Technology Inc
Tokyo Electric Power Co Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PKSHA Technology Inc, Tokyo Electric Power Co Holdings Inc filed Critical PKSHA Technology Inc
Priority to JP2018059747A priority Critical patent/JP7154024B2/en
Publication of JP2019170180A publication Critical patent/JP2019170180A/en
Application granted granted Critical
Publication of JP7154024B2 publication Critical patent/JP7154024B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ペットを効率よく見守ることができるペット動画解析装置、ぺット動画解析システム、ペット動画解析方法、及びプログラムの提供。【解決手段】ペット動画解析装置は、ペットが撮像された動画を取得する動画取得部20と、前記動画取得部20が取得した前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出部220と、前記ペットフレーム抽出部220が抽出した前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記動画取得部20が取得した前記動画に基づいて生成する要約動画生成部27と、前記要約動画生成部27が生成した前記要約動画を出力する要約動画出力部290と、を備える。【選択図】図2A pet moving picture analyzing apparatus, a pet moving picture analyzing system, a pet moving picture analyzing method, and a program are provided. A pet moving image analyzing apparatus includes: a moving image acquiring unit that acquires a moving image of a pet; and a plurality of frames that constitute the moving image acquired by the moving image acquiring unit. And the number of the pet frames extracted by the pet frame extracting unit 220 is greater than the number of non-pet frames that are frames excluding the pet frame among the plurality of frames. A summary moving image generation unit 27 that generates a summary moving image that is a moving image based on the moving image acquired by the moving image acquisition unit 20, and a summary moving image output unit that outputs the summary moving image generated by the summary moving image generation unit 27 290. [Selection] Figure 2

Description

本発明は、ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラムに関する。   The present invention relates to a pet video analysis device, a pet video analysis system, a pet video analysis method, and a program.

飼い主が自宅を留守にしている間、自宅に残したペットの様子を見守ることが望まれている。例えば、ペットの様子を見ること自体が飼い主にとって楽しみであり、外出中の自分のペットの様子を眺めたくなることがある。また、例えば、飼い主は、留守中にペットがきちんと餌を食べているか、ペットがいたずらをしていないか、あるいはペットに異常がないかが確認したくなることがある。   While the owner is away from home, it is desirable to watch the pets left at home. For example, watching the appearance of a pet itself is a pleasure for the owner, and it may be tempting to look at the appearance of his / her pet while on the go. In addition, for example, the owner may want to check whether the pet is eating properly, whether the pet is pranking, or that the pet is not abnormal while absent.

自宅に残したペットを見守るために、自宅に市販のネットワークカメラを設置し、飼い主が自宅外においてスマートフォンなどを用いて画像を確認する技術が一般に流通している。また、赤外線などを使用した動体検知を用いて自宅に残したペットの動きを検知し、カメラ撮影範囲に動きがあったタイミングにおいて飼い主に通知を行う商品が一般に流通している。   In order to watch over the pets left at home, a technology is generally available in which a commercially available network camera is installed at the home and the owner checks the image using a smartphone or the like outside the home. In addition, products that detect the movement of a pet left at home using moving object detection using infrared rays and notify the owner at the timing when the camera shooting range has moved are generally available.

上記のような技術として、例えば、無線通信ネットワークに基づくペット用インタラクティブシステムが知られている(特許文献1)。特許文献1に記載のペット用インタラクティブシステムは、室内に取付けられた無線カメラ、ペット用玩具及び制御端末を含む。無線カメラは、撮影した影像を制御端末に送信する。ペット用玩具には、制御端末と通信するための無線通信モジュールと、即時に無線通信モジュールにより受信した制御端末からの音声を再生するための発声モジュールと、制御端末の発した制御指令によりペット用玩具の走行を制御するための制御モジュールとが、取付けられている。   As such a technique, for example, an interactive system for pets based on a wireless communication network is known (Patent Document 1). The pet interactive system described in Patent Document 1 includes a wireless camera, a pet toy, and a control terminal installed in a room. The wireless camera transmits the captured image to the control terminal. The pet toy includes a wireless communication module for communicating with the control terminal, an utterance module for reproducing the voice from the control terminal immediately received by the wireless communication module, and a pet command based on a control command issued by the control terminal. A control module for controlling the running of the toy is attached.

特開2016−220671号公報JP 2016-220671 A

自宅に残したペットが撮像された動画を、無線通信ネットワークを介して、端末装置において鑑賞する場合、この動画には、ペットが撮像されている場面の割合が多いこと求められる。また、ペットが特定の場所において特定の行動を取った場合に、動画が撮像されたことの通知や記録を残すことが求められる。   When a moving image in which a pet left at home is imaged on a terminal device via a wireless communication network, the moving image is required to have a high proportion of scenes in which the pet is imaged. Also, when a pet takes a specific action at a specific place, it is required to leave a notification or record that a moving image has been captured.

上記の一般流通品や、特許文献1に記載のペット用インタラクティブシステムにおいては、飼い主である利用者は、カメラを用いて撮像された動画の中からペットが映っている箇所を探す必要があり不便である。ペットを撮像するカメラに、ペットがよく映っている箇所を検出する演算を行う演算装置を搭載する場合、ペットがよく映っている箇所を検出には高い検出精度が要求されため、この演算装置は高い性能をもつことが要求される。そのため、カメラのコストが高くなってしまうことが考えられる。
このように、従来、ペットを効率よく見守ることができなかった。
In the above-mentioned general distribution products and the interactive system for pets described in Patent Document 1, the owner user needs to search for a place where the pet appears in the video imaged using the camera, which is inconvenient. It is. When a camera that captures pets is equipped with a computing device that performs computations to detect locations where the pet is well reflected, high accuracy is required to detect locations where the pet is often reflected. It is required to have high performance. For this reason, the cost of the camera may be increased.
Thus, conventionally, it has not been possible to watch over a pet efficiently.

本発明は上記の点に鑑みてなされたものであり、ペットを効率よく見守ることができるペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラムを提供する。   The present invention has been made in view of the above points, and provides a pet video analysis device, a pet video analysis system, a pet video analysis method, and a program capable of efficiently watching a pet.

本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、ペットが撮像された動画を取得する動画取得部と、前記動画取得部が取得した前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出部と、前記ペットフレーム抽出部が抽出した前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記動画取得部が取得した前記動画に基づいて生成する要約動画生成部と、前記要約動画生成部が生成した前記要約動画を出力する要約動画出力部と、を備えるペット動画解析装置である。   The present invention has been made to solve the above problems, and one aspect of the present invention comprises a moving image acquisition unit that acquires a moving image in which a pet is imaged and the moving image acquired by the moving image acquisition unit. A pet frame extraction unit that extracts a pet frame that is a frame in which a pet is imaged from a plurality of frames, and the number of pet frames extracted by the pet frame extraction unit is the pet frame out of the plurality of frames. A summary video generation unit that generates a summary video that is larger than the number of non-pet frames that are excluded frames based on the video acquired by the video acquisition unit, and the summary video generated by the summary video generation unit Is a pet video analysis device including a summary video output unit for outputting.

また、本発明の一態様は、上記のペット動画解析装置において、前記ペットフレーム抽出部が抽出した前記ペットフレームのなかから、前記動画取得部が取得した前記動画において連続する前記ペットフレームを判定する連続ペットフレーム判定部をさらに備え、前記要約動画生成部は、前記連続ペットフレーム判定部が判定した前記ペットフレームから構成されるシーン動画に含まれる連続する前記ペットフレームの数を所定の数以下にした動画に基づいて前記要約動画を生成する。   Further, according to one aspect of the present invention, in the pet moving image analysis apparatus, the pet frames that are continuous in the moving image acquired by the moving image acquiring unit are determined from the pet frames extracted by the pet frame extracting unit. A continuous pet frame determination unit, wherein the summary video generation unit reduces the number of continuous pet frames included in the scene video composed of the pet frames determined by the continuous pet frame determination unit to a predetermined number or less. The summary video is generated based on the video.

また、本発明の一態様は、上記のペット動画解析装置において、前記シーン動画に含まれる連続する前記ペットフレームのなかからサムネイル画像に対応する前記ペットフレームを選択する。   According to another aspect of the present invention, in the pet moving image analysis apparatus, the pet frame corresponding to a thumbnail image is selected from the continuous pet frames included in the scene moving image.

また、本発明の一態様は、上記のペット動画解析装置において、前記シーン動画を記憶部に記憶させる記憶制御部と、前記記憶制御部が前記記憶部に記憶させた前記シーン動画を出力するシーン動画出力部とをさらに備える。   Further, according to one aspect of the present invention, in the pet moving image analysis apparatus described above, a storage control unit that stores the scene moving image in a storage unit, and a scene that outputs the scene moving image stored in the storage unit by the storage control unit A video output unit;

また、本発明の一態様は、上記のペット動画解析装置において、前記連続ペットフレーム判定部が判定した前記ペットフレームが、予め登録されている前記ペットの行動を示すイベントが撮像されている前記フレームであるイベントフレームであるか否かを判定するイベント判定部をさらに備える。   Further, according to one aspect of the present invention, in the pet moving image analysis apparatus, the frame in which the pet frame determined by the continuous pet frame determination unit is capturing an event indicating a pre-registered behavior of the pet is captured. And an event determination unit that determines whether the event frame is.

また、本発明の一態様は、上記のペット動画解析装置において、前記イベント判定部が前記イベントフレームであると判定した前記ペットフレームと、前記連続ペットフレーム判定部が判定した連続する前記ペットフレームとに基づいて前記イベントの発生回数を数えるイベント計数部をさらに備え、要約動画出力部は、前記要約動画生成部が生成した前記要約動画に加えて、前記イベント計数部が計数した前記発生回数をさらに出力する。   Further, according to one aspect of the present invention, in the pet moving image analysis apparatus, the pet frame determined by the event determination unit as the event frame, and the continuous pet frame determined by the continuous pet frame determination unit An event counting unit that counts the number of occurrences of the event based on the summary video, and the summary video output unit further includes the number of occurrences counted by the event counting unit in addition to the summary video generated by the summary video generation unit. Output.

また、本発明の一態様は、上記のペット動画解析装置において、前記要約動画生成部は、前記動画取得部が取得した前記動画に複数の種類の前記イベントが含まれる場合、前記イベント判定部が判定した前記イベントフレームに基づいて、前記複数の種類の前記イベントが前記要約動画に含まれるように前記要約動画を生成する。   Further, according to one aspect of the present invention, in the pet video analysis device, the summary video generation unit may include the event determination unit when the video acquired by the video acquisition unit includes a plurality of types of events. Based on the determined event frame, the summary video is generated so that the plurality of types of events are included in the summary video.

また、本発明の一態様は、上記のペット動画解析装置において、前記イベント判定部は、前記ペットフレーム抽出部が抽出した前記ペットフレームに撮像されている場所によって前記イベントの種類を判定する。   Further, according to one aspect of the present invention, in the pet moving image analysis apparatus described above, the event determination unit determines the type of the event based on a location captured by the pet frame extracted by the pet frame extraction unit.

また、本発明の一態様は、上記のペット動画解析装置において、前記ペットフレーム抽出部が抽出した前記ペットフレームに撮像された前記ペットが特定のペットであるか否かを判定するペット判定部と、前記ペット判定部が判定した結果を通知するペット判定結果通知部とをさらに備える。   Further, according to one aspect of the present invention, in the pet video analysis apparatus, the pet determination unit that determines whether the pet imaged in the pet frame extracted by the pet frame extraction unit is a specific pet; And a pet determination result notifying unit for notifying the result determined by the pet determining unit.

また、本発明の一態様は、上記のペット動画解析装置において、前記ペット判定部が判定した結果が通知されたことに応じて得られる評価を取得する評価取得部をさらに備え、前記ペット判定部は、前記評価取得部が取得した前記評価に基づいて前記動画取得部が取得した前記動画に撮像された前記ペットが特定のペットであるか否かを判定する。   Moreover, one aspect of the present invention further includes an evaluation acquisition unit that acquires an evaluation obtained in response to notification of a result determined by the pet determination unit in the pet video analysis device, and the pet determination unit Determines whether the pet imaged in the moving image acquired by the moving image acquisition unit is a specific pet based on the evaluation acquired by the evaluation acquisition unit.

また、本発明の一態様は、上記のペット動画解析装置と、前記動画を撮像し、前記ペット動画解析装置に供給する撮影装置と、前記ペット動画解析装置が出力する前記要約動画を取得する端末装置とを備えるペット動画解析システムである。   Further, according to one aspect of the present invention, the above-described pet video analysis device, a photographing device that captures the video and supplies the pet video analysis device, and a terminal that acquires the summary video output by the pet video analysis device A pet video analysis system including the apparatus.

また、本発明の一態様は、ペットが撮像された動画を取得する動画取得手順と、前記動画取得手順において取得された前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出手順と、前記ペットフレーム抽出手順において抽出された前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記動画取得手順において取得された前記動画に基づいて生成する要約動画生成手順と、前記要約動画生成手順において生成された前記要約動画を出力する要約動画出力手順と、を有するペット動画解析方法である。   One embodiment of the present invention is a frame in which a pet is imaged from a moving image acquisition procedure for acquiring a moving image in which a pet is imaged and a plurality of frames constituting the moving image acquired in the moving image acquisition procedure. A pet frame extraction procedure for extracting pet frames, and a moving image in which the number of pet frames extracted in the pet frame extraction procedure is larger than the number of non-pet frames that are frames excluding the pet frames among the plurality of frames. A summary video generation procedure for generating the summary video based on the video acquired in the video acquisition procedure, and a summary video output procedure for outputting the summary video generated in the summary video generation procedure This is a pet video analysis method.

また、本発明の一態様は、コンピュータにペットが撮像された動画を取得する動画取得ステップと、前記動画取得ステップにおいて取得された前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出ステップと、前記ペットフレーム抽出ステップにおいて抽出された前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記動画取得ステップにおいて取得された前記動画に基づいて生成する要約動画生成ステップと、前記要約動画生成ステップにおいて生成された前記要約動画を出力する要約動画出力ステップと、を実行させるためのプログラムである。   In one embodiment of the present invention, a moving image acquisition step of acquiring a moving image in which a pet is imaged by a computer, and a frame in which the pet is imaged from a plurality of frames constituting the moving image acquired in the moving image acquisition step. A pet frame extraction step for extracting pet frames, and the number of pet frames extracted in the pet frame extraction step is greater than the number of non-pet frames that are frames excluding the pet frame among the plurality of frames. A summary video generation step that generates a summary video that is a large number of videos based on the video acquired in the video acquisition step; a summary video output step that outputs the summary video generated in the summary video generation step; Is a program for executing

本発明によれば、ペットを効率よく見守ることができる。   According to the present invention, a pet can be watched efficiently.

本発明の第1の実施形態に係るペット見守りシステムの一例を示す図である。It is a figure showing an example of a pet watching system concerning a 1st embodiment of the present invention. 本発明の第1の実施形態に係るペット動画解析装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the pet moving image analyzer which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る撮像動画の解析結果の一例を示す図である。It is a figure which shows an example of the analysis result of the imaging moving image which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るイベント動画とサマリ動画との関係の一例を示す図である。It is a figure which shows an example of the relationship between the event moving image and the summary moving image which concern on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るイベント動画の生成及び出力処理の一例を示す図である。It is a figure which shows an example of the production | generation and output process of the event moving image which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るイベント動画の生成方法の一例を示す図である。It is a figure which shows an example of the production | generation method of the event moving image which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るサマリ動画の生成及び出力処理の一例を示す図である。It is a figure which shows an example of the production | generation and output process of the summary moving image which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るサマリ動画の生成方法の一例を示す図である。It is a figure which shows an example of the production | generation method of the summary moving image which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る時系列画面の一例を示す図である。It is a figure which shows an example of the time series screen which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るアルバム画面の一例を示す図である。It is a figure which shows an example of the album screen which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る活動量表示画面の一例を示す図である。It is a figure which shows an example of the active mass display screen which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るレポート画面の一例を示す図である。It is a figure which shows an example of the report screen which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係るペット動画解析装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the pet moving image analyzer which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る撮像動画の解析結果の一例を示す図である。It is a figure which shows an example of the analysis result of the imaging moving image which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係るペット判定処理の一例を示す図である。It is a figure which shows an example of the pet determination process which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係るペット動画解析装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the pet moving image analyzer which concerns on the 3rd Embodiment of this invention.

(第1の実施形態)
以下、図面を参照しながら本発明の実施形態について詳しく説明する。図1は、本実施形態に係るペット見守りシステムSの一例を示す図である。ペット見守りシステムSは、撮像装置1と、ペット動画解析装置2と、端末装置3とを備える。
(First embodiment)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram illustrating an example of a pet watching system S according to the present embodiment. The pet watching system S includes an imaging device 1, a pet video analysis device 2, and a terminal device 3.

撮像装置1は、ペットPが撮像された動画である撮像動画MVを撮像し、ペット動画解析装置2に供給する。撮像装置1は、通信機能を備えたカメラであり、ペットPの飼い主である利用者の自宅に設置される。撮像装置1は、ペットPの飼い主である利用者の自宅に残されたペットPを撮像する。撮像装置1は、撮像した撮像動画MVをペット動画解析装置2に送信する。ペットPとは、一例として、飼い猫である。ペットPは、飼い猫以外であってもよい。ペットPは、例えば、飼い犬や、猫や犬以外の飼われている動物であってもよい。   The imaging device 1 images a captured moving image MV that is a moving image in which the pet P is captured and supplies the captured moving image MV to the pet moving image analysis device 2. The imaging device 1 is a camera having a communication function, and is installed at the home of a user who is the owner of the pet P. The imaging device 1 images the pet P left in the home of the user who is the owner of the pet P. The imaging device 1 transmits the captured moving image MV to the pet moving image analysis device 2. The pet P is a domestic cat as an example. The pet P may be other than a domestic cat. The pet P may be, for example, a domestic dog or a domestic animal other than a cat or a dog.

撮像装置1が利用者の自宅内において設置される場所とは、ペットPの行動が撮像できると期待される場所であり、利用者によって決定される。ペットPの行動が撮像できると期待される場所とは、例えば、ペットPの餌入れの付近、水飲み場の付近、及びトイレの付近などである。   The place where the imaging device 1 is installed in the user's home is a place where the action of the pet P is expected to be taken and is determined by the user. The places where the action of the pet P is expected to be imaged are, for example, the vicinity of the pet P feeding place, the vicinity of the drinking fountain, and the vicinity of the toilet.

ペット動画解析装置2は、撮像動画MVの中からペットPを高精度において検出するグラフィックス プロセッシング ユニット(Graphics Processing UnitGPU)計算ユニットを備えるサーバである。ペット動画解析装置2は、撮像装置1との間において動画及び音声の暗号化通信を確立した上で、撮像動画MVを解析し、要約動画Vを生成する。ここで要約動画Vとは、ペットが撮像されている場面の割合が、ペットが撮像されていない場面の割合よりも多い動画である。ペット動画解析装置2は、要約動画Vが生成されたことを、1日において定期的に端末装置3に通知する。   The pet moving image analysis apparatus 2 is a server including a graphics processing unit (GPU) calculation unit that detects the pet P from the captured moving image MV with high accuracy. The pet moving image analysis device 2 analyzes the captured moving image MV and generates a summary moving image V after establishing encrypted communication of the moving image and sound with the imaging device 1. Here, the summary video V is a video in which the ratio of the scene where the pet is imaged is larger than the ratio of the scene where the pet is not imaged. The pet video analysis device 2 periodically notifies the terminal device 3 that the summary video V has been generated in one day.

ペット動画解析装置2は、機械学習を用いて、撮像動画MVの中からペットPを検出する。ペット動画解析装置2は、予め蓄積された学習データVDを用いて機械学習を実行する。ペット動画解析装置2は、機械学習の結果を用いて、撮像動画MVの中から物体を認識し、さらに認識した物体がペットPであるか否かを判定する。ここで機械学習とは、例えば、深層学習である。   The pet video analysis device 2 detects the pet P from the captured video MV using machine learning. The pet moving image analyzer 2 performs machine learning using the learning data VD accumulated in advance. The pet moving image analysis apparatus 2 recognizes an object from the captured moving image MV using the result of machine learning, and further determines whether or not the recognized object is a pet P. Here, the machine learning is, for example, deep learning.

ペット見守りシステムSでは、ペットPの位置や動きを撮像装置1ではなく、クラウドサーバであるペット動画解析装置2において撮像動画MVを解析する。これによりペット見守りシステムSでは、スケーラブルかつ高精度な解析が可能となる。   In the pet watching system S, the captured moving image MV is analyzed not by the imaging device 1 but by the pet moving image analysis device 2 which is a cloud server for the position and movement of the pet P. As a result, the pet watching system S enables scalable and highly accurate analysis.

端末装置3は、ペット動画解析装置2が出力する要約動画Vを取得する。端末装置3は利用者に所有され、ペット動画解析装置2から要約動画Vが生成されたことの通知を受信する。端末装置3から要約動画Vのリクエストがあると、ペット動画解析装置2は、リクエストのあった要約動画Vを端末装置3に出力する。   The terminal device 3 acquires the summary video V output from the pet video analysis device 2. The terminal device 3 is owned by the user and receives a notification that the summary video V has been generated from the pet video analysis device 2. When there is a request for the summary video V from the terminal device 3, the pet video analysis device 2 outputs the requested summary video V to the terminal device 3.

ペット見守りシステムSでは、24時間の撮像動画MVの中から、ペットPが撮像されている場面の部分だけを抜粋したり、ペットPが撮像されている場面の部分を繋げて一日分のサマリ動画を作成したりといったことが可能である。   In the pet watching system S, only a part of the scene where the pet P is imaged is extracted from the 24-hour video MV, or a part of the scene where the pet P is imaged is connected and summarized for one day. It is possible to create a video.

また、ペット見守りシステムSでは、利用者は、撮像装置1が撮影する画像内において、ペットPが存在することにより何らかの行動を意味する場所を事前に指定することができる。これにより、ペット見守りシステムSでは、事前に指定した場所と、ペットPの動きとを紐付けてペットPの行動の解析を行い、ペットPの行動管理を行うことができる。ここで、ペットPが存在することにより何らかの行動を意味する場所とは、例えば、餌入れ、水飲み場、トイレ等である。   Further, in the pet watching system S, the user can specify in advance a place meaning some action by the presence of the pet P in the image captured by the imaging device 1. Thereby, in the pet watching system S, the place designated in advance and the movement of the pet P can be linked, the behavior of the pet P can be analyzed, and the behavior management of the pet P can be performed. Here, the place meaning some action due to the presence of the pet P is, for example, a food container, a drinking fountain, a toilet or the like.

図2は、本実施形態に係るペット動画解析装置2の機能構成の一例を示す図である。ペット動画解析装置2は、動画取得部20と、動画記憶部21と、シーン判定部22と、記憶部23と、イベント解析部24と、サムネイル選択部25と、フレーム属性記憶部26と、要約動画生成部27と、サムネイル生成部28と、出力部29とを備える。   FIG. 2 is a diagram illustrating an example of a functional configuration of the pet video analysis apparatus 2 according to the present embodiment. The pet video analysis device 2 includes a video acquisition unit 20, a video storage unit 21, a scene determination unit 22, a storage unit 23, an event analysis unit 24, a thumbnail selection unit 25, a frame attribute storage unit 26, and a summary. A moving image generation unit 27, a thumbnail generation unit 28, and an output unit 29 are provided.

動画取得部20は、ペットPが撮像された撮像動画MVを撮像装置1から取得する。動画取得部20は、暗号化通信が可能な通信モジュールである。
動画記憶部21は、動画取得部20が取得した撮像動画MVを、ペット動画解析装置2が撮像動画MVを解析する間、記憶する。動画記憶部21は、記憶している撮像動画MVを、シーン判定部22、イベント解析部24、サムネイル選択部25、及び要約動画生成部27に供給する。
The moving image acquisition unit 20 acquires the captured moving image MV in which the pet P is captured from the imaging device 1. The moving image acquisition unit 20 is a communication module capable of encrypted communication.
The moving image storage unit 21 stores the captured moving image MV acquired by the moving image acquisition unit 20 while the pet moving image analysis apparatus 2 analyzes the captured moving image MV. The moving image storage unit 21 supplies the stored captured moving image MV to the scene determination unit 22, the event analysis unit 24, the thumbnail selection unit 25, and the summary moving image generation unit 27.

シーン判定部22は、動画記憶部21から供給される撮像動画MVに含まれるシーンを判定する。ここでシーン判定部22は、記憶部23に記憶される学習結果230に基づいてシーンを判定する。シーンとは、撮像動画MVにおける撮像されている内容にまとまりがある部分である。シーンとは、例えば、ペットPが撮像されている部分や、ペットPが撮像されていない部分である。   The scene determination unit 22 determines a scene included in the captured moving image MV supplied from the moving image storage unit 21. Here, the scene determination unit 22 determines a scene based on the learning result 230 stored in the storage unit 23. A scene is a portion in which the content being captured in the captured moving image MV is grouped. The scene is, for example, a portion where the pet P is imaged or a portion where the pet P is not imaged.

ペットPが撮像されている部分であるシーンとは、例えば、水飲み場において水を飲むシーン、餌入れに入っている餌を食べるシーン、トイレにおいて排泄するシーン、カメラの前において動いているシーン、カメラの付近を走り回りカメラに映ることと映らないことを短時間に繰り返しているシーン、撮像装置1のカメラに尾だけが映っているシーン、カメラの遠くに位置し姿が小さく映っているシーンなどである。   The scene where the pet P is imaged is, for example, a scene of drinking water at a drinking fountain, a scene of eating food in a food container, a scene of excretion in the toilet, a scene of moving in front of the camera, A scene that runs around the camera and appears to be reflected in the camera in a short time, a scene in which only the tail is reflected in the camera of the imaging device 1, a scene that is located far away from the camera and is shown in a small figure It is.

シーン判定部22は、ペットフレーム抽出部220と、連続ペットフレーム判定部221とを備える。
ペットフレーム抽出部220は、動画記憶部21から供給される撮像動画MVを構成する複数のフレームからペットフレームを抽出する。ペットフレームとは、ペットPが撮像されているフレームである。一方、撮像動画MVを構成するフレームのうちペットフレームを除くフレームを非ペットフレームという。
The scene determination unit 22 includes a pet frame extraction unit 220 and a continuous pet frame determination unit 221.
The pet frame extraction unit 220 extracts a pet frame from a plurality of frames constituting the captured moving image MV supplied from the moving image storage unit 21. A pet frame is a frame in which the pet P is imaged. On the other hand, a frame excluding a pet frame among frames constituting the captured moving image MV is called a non-pet frame.

連続ペットフレーム判定部221は、ペットフレーム抽出部220が抽出したペットフレームのなかから、動画記憶部21から供給される撮像動画MVにおいて連続するペットフレームを判定する。連続ペットフレーム判定部221が判定する連続するペットフレームはシーンに対応する。連続ペットフレーム判定部221が判定したペットフレームから構成される動画を、シーン動画CVという。   The continuous pet frame determination unit 221 determines a continuous pet frame in the captured moving image MV supplied from the moving image storage unit 21 from the pet frames extracted by the pet frame extraction unit 220. The continuous pet frame determined by the continuous pet frame determination unit 221 corresponds to a scene. A moving image composed of pet frames determined by the continuous pet frame determination unit 221 is referred to as a scene moving image CV.

連続するペットフレームとは、動画として内容が連続して見える一続きのペットフレームである。連続するペットフレームは、例えば、撮像動画MVにおいてペットフレームが隣り合っている一続きのペットフレームである。   A continuous pet frame is a continuous pet frame in which the content is continuously viewed as a moving image. The continuous pet frames are, for example, a series of pet frames in which the pet frames are adjacent to each other in the captured moving image MV.

なお、撮像動画MVにおいてペットフレームが隣り合っておらず、ペットフレームの間に非ペットフレームが存在していても、動画として内容が連続して見えれば、それらペットフレームと非ペットフレームとを合わせてシーン動画CVとされてよい。例えば、ペットPがカメラの付近を走り回りカメラに映ることと映らないことを短時間に繰り返しているシーンでは、ペットフレームと非ペットフレームとを合わせてシーン動画CVとされてよい。   Note that even if non-pet frames are not adjacent to each other in the captured video MV and there are non-pet frames between pet frames, if the content can be viewed continuously as a video, the pet frames and non-pet frames are combined. The scene movie CV may be used. For example, in a scene where the pet P runs around the camera and is not reflected in the camera in a short time, the pet frame and the non-pet frame may be combined into a scene video CV.

また、連続するペットフレームと判定されたペットフレームの前後が非ペットフレームである場合であっても、連続するペットフレームと判定されたペットフレームと同じシーンでると判定される場合には、この非ペットフレームがシーン動画CVに含められてもよい。   In addition, even when the pet frame determined to be a continuous pet frame is a non-pet frame before and after the pet frame determined to be a continuous pet frame, if it is determined to be the same scene as the pet frame determined to be a continuous pet frame, A pet frame may be included in the scene video CV.

シーン判定部22は、ペットフレーム抽出部220、及び連続ペットフレーム判定部221の処理の結果を、フレーム属性情報FPとしてイベント解析部24及びフレーム属性記憶部26に供給する。フレーム属性情報FPとは、撮像動画MVを構成する複数のフレームのフレーム番号と、撮像動画MVを構成する複数のフレームに対するシーン判定部22、イベント解析部24、及びサムネイル選択部25の処理の結果とが対応づけられた情報である。   The scene determination unit 22 supplies the processing results of the pet frame extraction unit 220 and the continuous pet frame determination unit 221 to the event analysis unit 24 and the frame attribute storage unit 26 as frame attribute information FP. The frame attribute information FP is the result of the processing of the scene determination unit 22, the event analysis unit 24, and the thumbnail selection unit 25 for the plurality of frames constituting the captured moving image MV and the plurality of frames constituting the captured moving image MV. Is the associated information.

ここで図3を参照し、ペットフレーム抽出部220、及び連続ペットフレーム判定部221の処理について説明する。
図3は、本実施形態に係る撮像動画MVの解析結果の一例を示す図である。撮像動画MVは、フレームFN1〜フレームFNnから構成される。図3に示す例では、フレームFN1〜フレームFN8においては、フレームFN3、フレームFN5、及びフレームFN6がペットフレームである。フレームFN1〜フレームFN8においては、フレームFN1、フレームFN2、フレームFN4、フレームFN7、フレームFN8が、非ペットフレームである。
Here, with reference to FIG. 3, processing of the pet frame extraction unit 220 and the continuous pet frame determination unit 221 will be described.
FIG. 3 is a diagram illustrating an example of an analysis result of the captured moving image MV according to the present embodiment. The captured moving image MV is composed of frames FN1 to FNn. In the example illustrated in FIG. 3, in the frames FN1 to FN8, the frame FN3, the frame FN5, and the frame FN6 are pet frames. In the frames FN1 to FN8, the frame FN1, the frame FN2, the frame FN4, the frame FN7, and the frame FN8 are non-pet frames.

ペットフレーム抽出部220は、フレームFN1〜フレームFNnそれぞれについてペットフレームであるかを判定する。ペットフレーム抽出部220は、フレームFN1〜フレームFNnのフレーム番号毎に、判定結果をそれぞれ対応づけ、フレーム属性情報FPに含める。   The pet frame extraction unit 220 determines whether each of the frames FN1 to FNn is a pet frame. The pet frame extraction unit 220 associates the determination results with the frame numbers of the frames FN1 to FNn and includes them in the frame attribute information FP.

連続ペットフレーム判定部221は、ペットフレーム抽出部220がペットフレームであると判定したフレームFN3、フレームFN5、及びフレームFN6が、連続ペットフレームであるか否かを判定する。図3に示す例では、フレームFN3、フレームFN5、及びフレームFN6のうち、フレームFN5と、フレームFN6とが連続ペットフレームであると判定する。
連続ペットフレーム判定部221は、フレームFN5と、フレームFN6とのフレーム番号毎に、判定結果をそれぞれ対応づけ、フレーム属性情報FPに含める。
The continuous pet frame determination unit 221 determines whether the frame FN3, the frame FN5, and the frame FN6 determined by the pet frame extraction unit 220 as pet frames are continuous pet frames. In the example illustrated in FIG. 3, it is determined that the frame FN5 and the frame FN6 among the frames FN3, FN5, and FN6 are continuous pet frames.
The continuous pet frame determination unit 221 associates the determination results for each frame number of the frames FN5 and FN6, and includes them in the frame attribute information FP.

図2に戻って、ペット動画解析装置2の構成の説明を続ける。
記憶部23には、学習結果230と、イベント情報231とが記憶される。
学習結果230とは、学習データVDを用いた機械学習による学習結果である。学習結果230には、例えば、動画に含まれるフレームに撮像されている物体の位置の判定結果や、この物体がペットであるか否かの判定結果が含まれる。
Returning to FIG. 2, the description of the configuration of the pet video analyzing apparatus 2 will be continued.
The storage unit 23 stores a learning result 230 and event information 231.
The learning result 230 is a learning result by machine learning using the learning data VD. The learning result 230 includes, for example, the determination result of the position of the object imaged in the frame included in the moving image and the determination result of whether or not this object is a pet.

また、学習結果230には、動画に含まれるフレームに撮像されている内容にまとまりがあるか否かの判定結果が含まれる。また、学習結果230には、動画に含まれるフレームに撮像されているペットの動きに対応する活動量の値が含まれる。また、学習結果230には、動画に含まれるフレームのうちいずれがサムネイルに適しているかの判定結果が含まれる。   In addition, the learning result 230 includes a determination result as to whether or not the content captured in the frame included in the moving image has a collection. The learning result 230 includes an activity amount value corresponding to the movement of the pet imaged in the frame included in the moving image. Further, the learning result 230 includes a determination result as to which of the frames included in the moving image is suitable for the thumbnail.

イベント情報とは、イベントの種類と、場所情報とが対応づけられた情報である。場所情報とは、動画内における領域を示す情報である。動画内における領域は、ペットPが残された自宅内の特定の場所毎に割り当てられている。   Event information is information in which an event type is associated with location information. The location information is information indicating an area in the moving image. The area in the moving image is assigned to each specific place in the home where the pet P is left.

例えば、「水飲み」のイベントには、水飲みの近くの領域を示す情報が対応づけられる。「ごはん」のイベントには、餌入れの近くの領域を示す情報が対応づけられる。「トイレ」のイベントには、トイレの近くの領域を示す情報が対応づけられる。「カメラの前で動いている」のイベントには、水飲み、餌入れ、及びトイレから遠い領域を示す情報が対応づけられる。   For example, an event “drinking” is associated with information indicating an area near drinking. Information indicating an area near the bait is associated with the “rice” event. Information indicating an area near the toilet is associated with the “toilet” event. The event “moving in front of the camera” is associated with information indicating an area far from the water drinking, feeding, and toilet.

なお、領域を示す情報は、例えば、2次元平面における領域を2次元座標により表した情報である。領域を示す情報は、3次元空間内における領域を3次元座標により表した情報であってもよい。   Note that the information indicating the region is, for example, information representing the region on the two-dimensional plane by two-dimensional coordinates. The information indicating the region may be information representing the region in the three-dimensional space by three-dimensional coordinates.

イベント解析部24は、シーン判定部22が供給するフレーム属性情報FPに基づいて、動画記憶部21から供給される撮像動画MVに含まれるイベントを解析する。ここでイベント解析部24は、記憶部23に記憶される学習結果230及びイベント情報231に基づいてイベントを解析する。   The event analysis unit 24 analyzes an event included in the captured moving image MV supplied from the moving image storage unit 21 based on the frame attribute information FP supplied from the scene determination unit 22. Here, the event analysis unit 24 analyzes the event based on the learning result 230 and the event information 231 stored in the storage unit 23.

ここでイベントとは、イベント情報231により示されるペットPの行動である。イベントは、イベント情報231の一部として予め記憶される。つまり、イベントは、予め登録されているペットPの行動を示す。
イベントには、例えば、水飲み場において水を飲む行動である「水飲み」、餌入れに入っている餌を食べる行動である「ごはん」、トイレにおいて排泄する行動である「トイレ」、及びカメラの前において動いている行動である「カメラの前で動いている」である。
Here, the event is an action of the pet P indicated by the event information 231. The event is stored in advance as part of the event information 231. That is, the event indicates an action of the pet P registered in advance.
The events include, for example, “drinking” which is the action of drinking water at the drinking fountain, “rice” which is the action of eating the food in the container, “toilet” which is the action of excretion in the toilet, and in front of the camera. Is "moving in front of the camera".

イベント解析部24は、イベント判定部240と、イベント計数部241と、活動量計測部242とを備える。
イベント判定部240は、撮像動画MVに含まれるイベントを判定する。ここでイベント判定部240は、連続ペットフレーム判定部221が判定したペットフレームが、イベントが撮像されているフレームであるイベントフレームであるか否かを判定する。つまり、イベント判定部240は、シーン動画CVに含まれるペットフレームにイベントが含まれているか否かを判定する。ペットフレームにイベントが含まれているシーン動画CVを、要約前イベント動画PEVという。
The event analysis unit 24 includes an event determination unit 240, an event counting unit 241, and an activity amount measuring unit 242.
The event determination unit 240 determines an event included in the captured moving image MV. Here, the event determination unit 240 determines whether or not the pet frame determined by the continuous pet frame determination unit 221 is an event frame that is a frame in which an event is captured. That is, the event determination unit 240 determines whether an event is included in the pet frame included in the scene video CV. A scene video CV in which an event is included in a pet frame is referred to as a pre-summary event video PEV.

イベント計数部241は、撮像動画MVに含まれるイベントの発生回数を数える。ここでイベント計数部241は、イベント判定部240が判定したイベントフレームと、連続ペットフレーム判定部221が判定した連続するペットフレームとに基づいて数える。   The event counting unit 241 counts the number of occurrences of events included in the captured moving image MV. Here, the event counting unit 241 counts based on the event frame determined by the event determination unit 240 and the continuous pet frame determined by the continuous pet frame determination unit 221.

活動量計測部242は、撮像動画MVに含まれるイベントに伴うペットPの運動量を計測する。ここで活動量計測部242は、動画記憶部21が供給する撮像動画MVと、イベント判定部240が供給するフレーム属性情報FPと、記憶部23に記憶される学習結果230に基づいて計測する。
活動量計測部242は、測定結果に基づいて活動量情報Aを生成する。ここで活動量情報Aとは、撮像動画MVを構成する複数のフレームのフレーム番号と、活動量計測部242が測定した活動量の値とが対応づけられた情報である。
The activity amount measuring unit 242 measures the amount of exercise of the pet P accompanying the event included in the captured moving image MV. Here, the activity amount measuring unit 242 performs measurement based on the captured moving image MV supplied by the moving image storage unit 21, the frame attribute information FP supplied by the event determination unit 240, and the learning result 230 stored in the storage unit 23.
The activity amount measuring unit 242 generates activity amount information A based on the measurement result. Here, the activity amount information A is information in which the frame numbers of a plurality of frames constituting the captured moving image MV and the activity amount values measured by the activity amount measuring unit 242 are associated with each other.

イベント解析部24は、イベント判定部240の処理の結果を、フレーム属性情報FPとしてサムネイル選択部25及びフレーム属性記憶部26に供給する。   The event analysis unit 24 supplies the processing result of the event determination unit 240 to the thumbnail selection unit 25 and the frame attribute storage unit 26 as frame attribute information FP.

サムネイル選択部25は、要約動画Vのサムネイルを選択する。ここでサムネイル選択部25は、動画記憶部21が供給する撮像動画MVと、イベント解析部24が供給するフレーム属性情報FPと、記憶部23に記憶される学習結果230に基づいて選択する。サムネイル選択部25は、選択結果をフレーム属性情報FPに含め、フレーム属性記憶部26に供給する。
サムネイルとは、要約動画Vを表示させる場合に視認性を高めるために縮小されて表示される画像である。サムネイルは、要約動画Vを構成するペットフレームのなかから選択される。
The thumbnail selection unit 25 selects a thumbnail of the summary video V. Here, the thumbnail selection unit 25 selects based on the captured moving image MV supplied from the moving image storage unit 21, the frame attribute information FP supplied from the event analysis unit 24, and the learning result 230 stored in the storage unit 23. The thumbnail selection unit 25 includes the selection result in the frame attribute information FP and supplies it to the frame attribute storage unit 26.
A thumbnail is an image that is reduced and displayed in order to enhance visibility when the summary video V is displayed. The thumbnail is selected from the pet frames constituting the summary video V.

ここで再び図3を参照し、イベント判定部240、イベント計数部241、サムネイル選択部25、及び活動量計測部242の処理について説明する。
図3に示す例では、イベント判定部240は、連続ペットフレーム判定部221が連続ペットフレームであると判定したフレームFN5、及びフレームFN6に撮像されているペットPの行動が、「カメラの前で動いている」のイベントであると判定する。イベント判定部240は、判定結果をフレーム属性情報FPに含める。
イベント計数部241は、フレームFN1〜フレームFN8において、イベント判定部240が判定したイベントの発生回数を1回であると数える。
Here, with reference to FIG. 3 again, processing of the event determination unit 240, the event counting unit 241, the thumbnail selection unit 25, and the activity amount measurement unit 242 will be described.
In the example illustrated in FIG. 3, the event determination unit 240 indicates that the action of the pet P imaged in the frame FN5 and the frame FN6 determined by the continuous pet frame determination unit 221 as the continuous pet frame is “in front of the camera”. It is determined that the event is “moving”. The event determination unit 240 includes the determination result in the frame attribute information FP.
The event counting unit 241 counts the number of occurrences of the event determined by the event determining unit 240 in the frames FN1 to FN8 as one.

サムネイル選択部25は、イベント判定部240がイベントフレームであると判定したフレームFN5、及びフレームFN6のなかからサムネイルに対応するフレームを選択する。サムネイル選択部25は、選択結果をフレーム属性情報FPに含める。   The thumbnail selection unit 25 selects a frame corresponding to the thumbnail from the frame FN5 and the frame FN6 determined by the event determination unit 240 as event frames. The thumbnail selection unit 25 includes the selection result in the frame attribute information FP.

活動量計測部242は、イベント判定部240がイベントフレームであると判定したフレームFN5、及びフレームFN6毎に、撮像されているペットPの活動量を測定する。図3に示す例では、活動量計測部242は、フレームFN5、及びフレームFN6それぞれに対して活動量の値として「3」を対応づけ活動量情報Aとする。   The activity amount measuring unit 242 measures the activity amount of the captured pet P for each of the frames FN5 and FN6 that the event determination unit 240 determines to be an event frame. In the example illustrated in FIG. 3, the activity amount measuring unit 242 associates “3” as the activity amount value with respect to each of the frames FN5 and FN6 and sets the activity amount information A.

図2に戻って、ペット動画解析装置2の構成の説明を続ける。
フレーム属性記憶部26は、シーン判定部22、イベント解析部24、及びサムネイル選択部25が供給するフレーム属性情報FPを記憶する。フレーム属性記憶部26は、記憶したフレーム属性情報FPを要約動画生成部27、サムネイル生成部28、及び出力部29に供給する。
また、フレーム属性記憶部26は、イベント解析部24が供給する活動量情報Aを記憶する。フレーム属性記憶部26は、記憶した活動量情報Aを要約動画生成部27に供給する。
Returning to FIG. 2, the description of the configuration of the pet video analyzing apparatus 2 will be continued.
The frame attribute storage unit 26 stores frame attribute information FP supplied from the scene determination unit 22, event analysis unit 24, and thumbnail selection unit 25. The frame attribute storage unit 26 supplies the stored frame attribute information FP to the summary video generation unit 27, the thumbnail generation unit 28, and the output unit 29.
The frame attribute storage unit 26 stores activity amount information A supplied from the event analysis unit 24. The frame attribute storage unit 26 supplies the stored activity amount information A to the summary video generation unit 27.

要約動画生成部27は、要約動画Vを生成する。ここで要約動画Vとは、ペットフレームの数が非ペットフレームの数よりも多い動画である。要約動画Vには、イベント毎に生成されるイベント動画EVと、それらのイベント動画EVに基づいて生成されるサマリ動画SVとがある。
要約動画生成部27は、イベント動画生成部270と、サマリ動画生成部271とを備える。
The summary video generation unit 27 generates a summary video V. Here, the summary video V is a video in which the number of pet frames is larger than the number of non-pet frames. The summary video V includes an event video EV generated for each event and a summary video SV generated based on the event video EV.
The summary video generation unit 27 includes an event video generation unit 270 and a summary video generation unit 271.

イベント動画生成部270は、動画記憶部21が供給する撮像動画MVと、フレーム属性記憶部26が供給するフレーム属性情報FPとに基づいてイベント動画EVを生成する。また、イベント動画生成部270は、フレーム属性記憶部26が供給する活動量情報Aに基づいて、生成したイベント動画EVに対する活動量を算出する。
サマリ動画生成部271は、イベント動画生成部270が生成したイベント動画EVに基づいてサマリ動画SVを生成する。
The event moving image generating unit 270 generates an event moving image EV based on the captured moving image MV supplied from the moving image storage unit 21 and the frame attribute information FP supplied from the frame attribute storage unit 26. Further, the event moving image generating unit 270 calculates an activity amount for the generated event moving image EV based on the activity amount information A supplied from the frame attribute storage unit 26.
The summary video generation unit 271 generates a summary video SV based on the event video EV generated by the event video generation unit 270.

ここで図4を参照し、イベント動画EVとサマリ動画SVとの関係について説明する。
図4は、本実施形態に係るイベント動画EVとサマリ動画SVとの関係の一例を示す図である。ペット動画解析装置2は、撮像装置1から取得する撮像動画MVを、所定の周期において解析する。ここで所定の周期とは、例えば、1時間である。
Here, with reference to FIG. 4, the relationship between the event video EV and the summary video SV will be described.
FIG. 4 is a diagram illustrating an example of the relationship between the event video EV and the summary video SV according to the present embodiment. The pet moving image analysis device 2 analyzes the captured moving image MV acquired from the imaging device 1 in a predetermined cycle. Here, the predetermined cycle is, for example, one hour.

1時間の撮像動画MVにイベントが含まれている場合、イベント動画生成部270は、イベント動画EVを生成する。図4に示す例では、時刻t1において、イベント動画生成部270−1は、1時間の撮像動画MVに含まれる複数のイベント#1−1、イベント#1−2、及びイベント#1−3についてそれぞれイベント動画EV1−1、イベント動画EV1−2、及びイベント動画EV1−3を生成する。ここでイベント動画生成部270−1は、図2のイベント動画生成部270である。
生成されたイベント動画EV1−1、イベント動画EV1−2、及びイベント動画EV1−3は、時刻t1において要約動画出力部290により端末装置3に出力される。
When an event is included in the one-hour captured moving image MV, the event moving image generation unit 270 generates an event moving image EV. In the example illustrated in FIG. 4, at time t1, the event moving image generation unit 270-1 performs a plurality of events # 1-1, event # 1-2, and event # 1-3 included in the one-hour captured moving image MV. An event video EV1-1, an event video EV1-2, and an event video EV1-3 are generated. Here, the event moving image generating unit 270-1 is the event moving image generating unit 270 of FIG.
The generated event video EV1-1, event video EV1-2, and event video EV1-3 are output to the terminal device 3 by the summary video output unit 290 at time t1.

図4に示す例では、時刻t2において、イベント動画生成部270−2は、次の1時間の撮像動画MVに含まれる複数のイベント#2−1、及びイベント#2−2についてそれぞれイベント動画EV2−1、及びイベント動画EV2−2を生成する。ここでイベント動画生成部270−2は、図2のイベント動画生成部270である。
生成されたイベント動画EV2−1、及びイベント動画EV2−2は、時刻t2において要約動画出力部290により端末装置3に出力される。
In the example illustrated in FIG. 4, at time t2, the event moving image generation unit 270-2 performs the event moving image EV2 for each of the plurality of events # 2-1 and event # 2-2 included in the next one-hour captured moving image MV. −1 and event video EV2-2. Here, the event moving image generating unit 270-2 is the event moving image generating unit 270 of FIG.
The generated event video EV2-1 and event video EV2-2 are output to the terminal device 3 by the summary video output unit 290 at time t2.

サマリ動画生成部271は、生成した複数のイベント動画EV1−1、イベント動画EV1−2、イベント動画EV1−3を、イベント動画EV2−1、及びイベント動画EV2−2から所定の周期においてサマリ動画SV1を生成する。ここで所定の周期とは、例えば、8時間である。
生成されたサマリ動画SV1は、スケジュール#1において要約動画出力部290により端末装置3に出力される。
The summary video generator 271 generates a plurality of generated event videos EV1-1, event videos EV1-2, and event videos EV1-3 from the event videos EV2-1 and event videos EV2-2 in a predetermined cycle. Is generated. Here, the predetermined cycle is, for example, 8 hours.
The generated summary video SV1 is output to the terminal device 3 by the summary video output unit 290 in schedule # 1.

なお、図4に示す例では、ペット動画解析装置2が撮像動画MVを解析する周期を1時間としたが、これに限らない。ペット動画解析装置2が撮像動画MVを解析する周期は、イベントが発生すると、ペット動画解析装置2がイベント動画EVを端末装置3に逐次送信できる程度に短い周期であってもよい。イベントが発生すると、ペット動画解析装置2がイベント動画EVを端末装置3に逐次送信できる程度に短い周期とは、例えば、1分である。   In the example illustrated in FIG. 4, the period in which the pet moving image analysis apparatus 2 analyzes the captured moving image MV is 1 hour, but is not limited thereto. The period in which the pet moving image analysis device 2 analyzes the captured moving image MV may be short enough that the pet moving image analysis device 2 can sequentially transmit the event moving image EV to the terminal device 3 when an event occurs. When the event occurs, the period that is short enough to allow the pet video analysis device 2 to sequentially transmit the event video EV to the terminal device 3 is, for example, 1 minute.

また、ペット動画解析装置2は、イベント動画EVと、サマリ動画SVとを同じ周期において端末装置3に出力してもよい。イベント動画EVと、サマリ動画SVとが同じ周期において出力される場合、ペット動画解析装置2が撮像動画MVを解析する周期は、例えば、サマリ動画生成部271がサマリ動画SVを生成する周期(例えば、8時間)と同じある。
また、ペット動画解析装置2が撮像動画MVを解析する周期は、例えば、24時間であってもよい。
In addition, the pet video analysis device 2 may output the event video EV and the summary video SV to the terminal device 3 in the same cycle. When the event video EV and the summary video SV are output in the same cycle, the cycle in which the pet video analysis device 2 analyzes the captured video MV is, for example, the cycle in which the summary video generation unit 271 generates the summary video SV (for example, , 8 hours).
Moreover, the period when the pet moving image analysis apparatus 2 analyzes the captured moving image MV may be, for example, 24 hours.

図2に戻って、ペット動画解析装置2の構成の説明を続ける。
サムネイル生成部28は、動画記憶部21が供給する撮像動画MVと、フレーム属性記憶部26が供給するフレーム属性情報FPと、要約動画生成部27が供給するサマリ動画SVとに基づいてサムネイルSNを生成する。
Returning to FIG. 2, the description of the configuration of the pet video analyzing apparatus 2 will be continued.
The thumbnail generation unit 28 selects the thumbnail SN based on the captured video MV supplied from the video storage unit 21, the frame attribute information FP supplied from the frame attribute storage unit 26, and the summary video SV supplied from the summary video generation unit 27. Generate.

出力部29は、要約動画Vを端末装置3に出力する。出力部29は、要約動画出力部290と、サムネイル出力部291とを備える。
要約動画出力部290は、要約動画生成部27が生成した要約動画Vを端末装置3に出力する。
The output unit 29 outputs the summary video V to the terminal device 3. The output unit 29 includes a summary video output unit 290 and a thumbnail output unit 291.
The summary video output unit 290 outputs the summary video V generated by the summary video generation unit 27 to the terminal device 3.

サムネイル出力部291は、サムネイル生成部28が生成したサムネイルSNを端末装置3に出力する。   The thumbnail output unit 291 outputs the thumbnail SN generated by the thumbnail generation unit 28 to the terminal device 3.

(イベント動画の生成及び出力)
次に図5及び図6を参照し、イベント動画EVの生成及び出力処理について説明する。
図5は、本実施形態に係るイベント動画EVの生成及び出力処理の一例を示す図である。図5に示す処理は、所定の周期(例えば、1時間)において実行される。
(Generation and output of event video)
Next, the generation and output processing of the event moving image EV will be described with reference to FIGS.
FIG. 5 is a diagram illustrating an example of generation and output processing of the event moving image EV according to the present embodiment. The process shown in FIG. 5 is executed in a predetermined cycle (for example, 1 hour).

ステップS100:動画取得部20は、撮像装置1が撮像した撮像動画MVを取得する。動画取得部20は、取得した撮像動画MVを動画記憶部21に供給する。
動画記憶部21は、動画取得部20が供給する撮像動画MVを、シーン判定部22と、イベント解析部24と、サムネイル選択部25と、要約動画生成部27と、サムネイル生成部28とに供給する。
Step S100: The moving image acquisition unit 20 acquires the captured moving image MV captured by the imaging device 1. The moving image acquisition unit 20 supplies the acquired captured moving image MV to the moving image storage unit 21.
The moving image storage unit 21 supplies the captured moving image MV supplied from the moving image acquisition unit 20 to the scene determination unit 22, the event analysis unit 24, the thumbnail selection unit 25, the summary moving image generation unit 27, and the thumbnail generation unit 28. To do.

ステップS102:ペットフレーム抽出部220は、動画記憶部21が供給する撮像動画MVを構成する複数のフレームからペットフレームを抽出する。ここで、ペットフレーム抽出部220は、記憶部23に記憶される学習結果230に基づく機械学習を用いて、ペットフレームを抽出する。ペットフレーム抽出部220は、フレームに猫の画像が撮像されている場合に、このフレームにペットPが撮像されていると判定する。 Step S102: The pet frame extraction unit 220 extracts a pet frame from a plurality of frames constituting the captured moving image MV supplied by the moving image storage unit 21. Here, the pet frame extraction unit 220 extracts a pet frame using machine learning based on the learning result 230 stored in the storage unit 23. The pet frame extraction unit 220 determines that the pet P is captured in this frame when a cat image is captured in the frame.

ペットフレーム抽出部220は、撮像動画MVを構成する複数のフレームそれぞれについてペットフレームであるかを、学習結果230に基づく機械学習を用いて判定することによりペットフレームを抽出する。ペットフレーム抽出部220は、学習結果230に基づいて、撮像動画MVを構成する複数のフレームそれぞれについて、対象物の位置を判定する。ペットフレーム抽出部220は、学習結果230に基づいて、判定した対象物がペットPであるか否かを判定する。   The pet frame extraction unit 220 extracts a pet frame by determining whether each of a plurality of frames constituting the captured moving image MV is a pet frame by using machine learning based on the learning result 230. Based on the learning result 230, the pet frame extraction unit 220 determines the position of the object for each of a plurality of frames constituting the captured moving image MV. The pet frame extraction unit 220 determines whether or not the determined object is the pet P based on the learning result 230.

ペットフレーム抽出部220は、撮像動画MVを構成する複数のフレームのフレーム番号毎に、判定結果をそれぞれ対応づけ、フレーム属性情報FPに含める。
ペットフレーム抽出部220は、判定結果を含めたフレーム属性情報FPを連続ペットフレーム判定部221に供給する。
The pet frame extraction unit 220 associates the determination results with the frame numbers of a plurality of frames constituting the captured moving image MV, and includes them in the frame attribute information FP.
The pet frame extraction unit 220 supplies the frame attribute information FP including the determination result to the continuous pet frame determination unit 221.

ここで、動画記憶部21から供給される撮像動画MVとは、動画取得部20が撮像装置1から取得した動画である。したがって、ペットフレーム抽出部220は、動画取得部20が取得した撮像動画MVを構成する複数のフレームからペットフレームを抽出する。   Here, the captured moving image MV supplied from the moving image storage unit 21 is a moving image acquired from the imaging device 1 by the moving image acquisition unit 20. Therefore, the pet frame extraction unit 220 extracts a pet frame from a plurality of frames constituting the captured moving image MV acquired by the moving image acquisition unit 20.

ステップS104:連続ペットフレーム判定部221は、ペットフレーム抽出部220が供給するフレーム属性情報FPに基づいて、動画記憶部21から供給される撮像動画MVにおいて連続するペットフレームを判定する。つまり、連続ペットフレーム判定部221は、撮像動画MVに含まれるシーン動画CVを判定する。
ここで連続ペットフレーム判定部221は、フレーム属性情報FPに基づいて、ペットフレーム抽出部220が抽出したペットフレームを判定する。連続ペットフレーム判定部221は、ペットフレーム抽出部220が抽出したペットフレームのなかから、撮像動画MVにおいて連続するペットフレームを判定する。
Step S104: The continuous pet frame determination unit 221 determines continuous pet frames in the captured moving image MV supplied from the moving image storage unit 21, based on the frame attribute information FP supplied from the pet frame extraction unit 220. That is, the continuous pet frame determination unit 221 determines a scene video CV included in the captured video MV.
Here, the continuous pet frame determination unit 221 determines the pet frame extracted by the pet frame extraction unit 220 based on the frame attribute information FP. The continuous pet frame determination unit 221 determines a pet frame that is continuous in the captured moving image MV from the pet frames extracted by the pet frame extraction unit 220.

連続ペットフレーム判定部221は、記憶部23に記憶される学習結果230に基づく機械学習を用いて、連続するペットフレームを判定する。連続ペットフレーム判定部221は、ペットフレームに加えて非ペットフレームを含めて、複数のフレームが連続しているか否かを判定してもよい。   The continuous pet frame determination unit 221 determines continuous pet frames using machine learning based on the learning result 230 stored in the storage unit 23. The continuous pet frame determination unit 221 may determine whether a plurality of frames including a non-pet frame in addition to a pet frame are continuous.

連続ペットフレーム判定部221は、撮像動画MVを構成する複数のフレームのフレーム番号毎に、判定結果をそれぞれ対応づけ、フレーム属性情報FPに含める。連続ペットフレーム判定部221は、判定結果を含めたフレーム属性情報FPを、イベント解析部24と、フレーム属性記憶部26とに供給する。   The continuous pet frame determination unit 221 associates a determination result with each frame number of a plurality of frames constituting the captured moving image MV, and includes the determination result in the frame attribute information FP. The continuous pet frame determination unit 221 supplies the frame attribute information FP including the determination result to the event analysis unit 24 and the frame attribute storage unit 26.

ここで、動画記憶部21から供給される撮像動画MVとは、動画取得部20が撮像装置1から取得した動画である。したがって、連続ペットフレーム判定部221は、ペットフレーム抽出部220が抽出したペットフレームのなかから、動画取得部20が取得した撮像動画MVにおいて連続するペットフレームを判定する。   Here, the captured moving image MV supplied from the moving image storage unit 21 is a moving image acquired from the imaging device 1 by the moving image acquisition unit 20. Therefore, the continuous pet frame determination unit 221 determines a continuous pet frame in the captured moving image MV acquired by the moving image acquisition unit 20 from the pet frames extracted by the pet frame extraction unit 220.

ステップS106:イベント判定部240は、連続ペットフレーム判定部221が供給するフレーム属性情報FPに基づいて、動画記憶部21から供給される撮像動画MVに含まれるイベントを判定する。イベント判定部240は、連続ペットフレーム判定部221が判定したシーン動画CVを構成するペットフレームそれぞれについてイベントを判定する。
イベント判定部240は、判定した結果をフレーム属性情報FPに含め、イベント計数部241に供給する。
Step S106: The event determination unit 240 determines an event included in the captured moving image MV supplied from the moving image storage unit 21 based on the frame attribute information FP supplied from the continuous pet frame determination unit 221. The event determination unit 240 determines an event for each pet frame constituting the scene video CV determined by the continuous pet frame determination unit 221.
The event determination unit 240 includes the determination result in the frame attribute information FP and supplies the frame attribute information FP to the event counting unit 241.

ここでイベント判定部240は、記憶部23に記憶される学習結果230に基づく機械学習、及び記憶部23に記憶されるイベント情報231を用いて判定する。イベント判定部240は、学習結果230に基づく機械学習を用いて、ペットPの位置が、イベント情報231が示すイベントの種類に対応づけられた場所情報が示す領域に含まれるか否かを判定する。イベント判定部240は、ペットPの位置が含まれる領域を示す場所情報に、イベント情報231において対応づけられたイベントの種類を、イベントの判定対象であるペットフレームに撮像されているイベントであると判定する。   Here, the event determination unit 240 performs determination using machine learning based on the learning result 230 stored in the storage unit 23 and event information 231 stored in the storage unit 23. The event determination unit 240 uses machine learning based on the learning result 230 to determine whether the position of the pet P is included in the area indicated by the location information associated with the event type indicated by the event information 231. . The event determination unit 240 is an event in which the event type associated with the location information indicating the area including the position of the pet P in the event information 231 is captured in the pet frame that is the event determination target. judge.

例えば、イベント判定部240は、ペットPの位置が水飲みの近くの領域に含まれると判定する場合、ペットフレームに含まれるイベントの種類が「水飲み」であると判定する。
したがって、イベント判定部240は、ペットフレーム抽出部220が抽出したペットフレームに撮像されている場所によってイベントの種類を判定する。
For example, when the event determination unit 240 determines that the position of the pet P is included in an area near drinking, the event determination unit 240 determines that the type of event included in the pet frame is “drinking”.
Therefore, the event determination unit 240 determines the type of the event based on the location imaged in the pet frame extracted by the pet frame extraction unit 220.

なお、イベント判定部240は、場所によってイベントの種類を判定する代わりに、ペットフレーム抽出部220が抽出したペットフレームに撮像されているペットPの動きによってイベントの種類を判定してもよい。
ペットPの動きによってイベントの種類を判定する場合、イベント判定部240は、記憶部23に記憶される学習結果230に基づく機械学習を用いて、ペットフレームに撮像されているペットPの動きを解析する。イベント判定部240がペットPの動きによってイベントの種類を判定する場合、学習結果230には、ペットの動きとイベントの種類との対応が学習された結果が含まれてよい。
Note that the event determination unit 240 may determine the event type based on the movement of the pet P imaged in the pet frame extracted by the pet frame extraction unit 220 instead of determining the event type based on the location.
When determining the type of event based on the movement of the pet P, the event determination unit 240 analyzes the movement of the pet P imaged in the pet frame by using machine learning based on the learning result 230 stored in the storage unit 23. To do. When the event determination unit 240 determines the event type based on the movement of the pet P, the learning result 230 may include a result of learning the correspondence between the pet movement and the event type.

ステップS108:イベント計数部241は、イベント判定部240が供給するフレーム属性情報FPに基づいて、動画記憶部21が供給する撮像動画MVに含まれるイベントの発生回数を数える。ここで、イベント計数部241は、イベント判定部240がイベントフレームであると判定したペットフレームと、連続ペットフレーム判定部221が判定した連続するペットフレームとに基づいてイベントの発生回数を数える。イベント計数部241は、イベントの発生回数をイベントの種類毎に数える。
イベント計数部241は、数えたイベントの発生回数をフレーム属性情報FPに含める。イベント計数部241は、発生回数を含めたフレーム属性情報FPを活動量計測部242に供給する。
Step S108: The event counting unit 241 counts the number of occurrences of events included in the captured moving image MV supplied by the moving image storage unit 21 based on the frame attribute information FP supplied by the event determination unit 240. Here, the event counting unit 241 counts the number of occurrences of the event based on the pet frame determined by the event determining unit 240 as the event frame and the continuous pet frame determined by the continuous pet frame determining unit 221. The event counting unit 241 counts the number of event occurrences for each event type.
The event counting unit 241 includes the counted number of event occurrences in the frame attribute information FP. The event counting unit 241 supplies frame attribute information FP including the number of occurrences to the activity amount measuring unit 242.

ステップS110:活動量計測部242は、イベント計数部241が供給するフレーム属性情報FPに基づいて、動画記憶部21が供給する撮像動画MVに含まれるイベントに伴うペットPの運動量を計測する。ここで、活動量計測部242は、記憶部23に記憶される学習結果230に基づいて計測する。 Step S110: The activity amount measuring unit 242 measures the amount of exercise of the pet P accompanying the event included in the captured moving image MV supplied by the moving image storage unit 21, based on the frame attribute information FP supplied by the event counting unit 241. Here, the activity amount measurement unit 242 performs measurement based on the learning result 230 stored in the storage unit 23.

活動量計測部242は、記憶部23に記憶される学習結果230に含まれる撮像されているペットの動きに対応する活動量の値に基づいて、イベント判定部240が判定したイベントフレーム毎に活動量を計測する。
活動量計測部242は、計測した結果をフレーム属性情報FPに含める。活動量計測部242は、計測した結果を含めたフレーム属性情報FPを、サムネイル選択部25及びフレーム属性記憶部26に供給する。
The activity amount measurement unit 242 performs activity for each event frame determined by the event determination unit 240 based on the activity amount value corresponding to the movement of the captured pet included in the learning result 230 stored in the storage unit 23. Measure the amount.
The activity amount measuring unit 242 includes the measurement result in the frame attribute information FP. The activity amount measurement unit 242 supplies the frame attribute information FP including the measurement result to the thumbnail selection unit 25 and the frame attribute storage unit 26.

なお、活動量計測部242は、活動量の測定に、学習結果230に含まれる撮像されているペットの動きに対応する活動量の値の代わりに、イベントの種類毎に予め割り当てられた活動量の値を用いてもよい。活動量計測部242は、活動量の測定にイベントの種類毎に予め割り当てられた活動量の値を用いる場合、イベントの種類毎に予め割り当てられた活動量の値は、イベント情報231に含まれてよい。   It should be noted that the activity amount measuring unit 242 measures the activity amount, instead of the activity amount value corresponding to the movement of the captured pet included in the learning result 230, the activity amount assigned in advance for each event type. The value of may be used. When the activity amount measurement unit 242 uses the activity amount value assigned in advance for each event type for the activity amount measurement, the activity amount value assigned in advance for each event type is included in the event information 231. It's okay.

ステップS112:サムネイル選択部25は、イベント判定部240が判定したイベント毎に、イベントフレームのなかからサムネイルに対応するイベントフレームを選択する。ここでイベントフレームは、シーン動画CVに含まれる連続するペットフレームである。したがって、サムネイル選択部25は、シーン動画に含まれる連続するペットフレームのなかからサムネイル画像に対応するペットフレームを選択する。 Step S112: The thumbnail selection unit 25 selects an event frame corresponding to the thumbnail from the event frames for each event determined by the event determination unit 240. Here, the event frame is a continuous pet frame included in the scene video CV. Therefore, the thumbnail selection unit 25 selects the pet frame corresponding to the thumbnail image from the continuous pet frames included in the scene moving image.

ここでサムネイル選択部25は、動画記憶部21が供給する撮像動画MVと、イベント解析部24が供給するフレーム属性情報FPと、記憶部23に記憶される学習結果230に基づいて要約動画Vのサムネイルを選択する。サムネイル選択部25は、学習結果230に基づいて、イベント判定部240が判定したイベント毎に、イベントフレームのうちいずれがサムネイルに適しているかを判定する。   Here, the thumbnail selection unit 25 selects the summary video V based on the captured video MV supplied by the video storage unit 21, the frame attribute information FP supplied by the event analysis unit 24, and the learning result 230 stored in the storage unit 23. Select a thumbnail. Based on the learning result 230, the thumbnail selection unit 25 determines which of the event frames is suitable for the thumbnail for each event determined by the event determination unit 240.

サムネイル選択部25は、選択結果をフレーム属性情報FPに含める。サムネイル選択部25は、選択結果を含めたフレーム属性情報FPをフレーム属性記憶部26に供給する。   The thumbnail selection unit 25 includes the selection result in the frame attribute information FP. The thumbnail selection unit 25 supplies the frame attribute information FP including the selection result to the frame attribute storage unit 26.

なお、サムネイル選択部25は、学習結果230に基づいてサムネイルを選択する代わりに、所定のルールに基づいてサムネイルを選択してもよい。所定のルールとは、例えば、イベント毎に最も時間の順序が早いイベントフレームをサムネイルとして選択することである。また、別の例では、所定のルールとは、イベント毎に最も時間の順序が遅いイベントフレームをサムネイルとして選択することである。また、別の例では、所定のルールとは、イベントフレームの画像内に占めるペットPの画像の割合が最も大きいイベントフレームをサムネイルとして選択することである。   Note that the thumbnail selection unit 25 may select a thumbnail based on a predetermined rule instead of selecting a thumbnail based on the learning result 230. The predetermined rule is to select, for example, an event frame having the earliest time order for each event as a thumbnail. In another example, the predetermined rule is to select, as a thumbnail, an event frame having the latest time order for each event. In another example, the predetermined rule is to select an event frame having the largest proportion of the image of the pet P in the event frame image as a thumbnail.

ステップS114:フレーム属性記憶部26は、イベント画像生成準備のための処理を実行する。フレーム属性記憶部26は、シーン判定部22、イベント解析部24、及びサムネイル選択部25が供給するフレーム属性情報FPを記憶する。フレーム属性記憶部26は、記憶したフレーム属性情報FPを要約動画生成部27、及びサムネイル生成部28に供給する。また、フレーム属性記憶部26は、記憶したフレーム属性情報FPを出力部29に供給する。
また、フレーム属性記憶部26は、イベント解析部24が供給する活動量情報Aを要約動画生成部27に供給する。
Step S114: The frame attribute storage unit 26 executes processing for preparation for event image generation. The frame attribute storage unit 26 stores frame attribute information FP supplied from the scene determination unit 22, event analysis unit 24, and thumbnail selection unit 25. The frame attribute storage unit 26 supplies the stored frame attribute information FP to the summary video generation unit 27 and the thumbnail generation unit 28. In addition, the frame attribute storage unit 26 supplies the stored frame attribute information FP to the output unit 29.
Further, the frame attribute storage unit 26 supplies the activity amount information A supplied from the event analysis unit 24 to the summary moving image generation unit 27.

ステップS116:イベント動画生成部270は、フレーム属性記憶部26が供給するフレーム属性情報FPに基づいて、動画記憶部21が供給する撮像動画MVに含まれるイベントの発生回数が1以上であるか否かを判定する。 Step S116: Based on the frame attribute information FP supplied from the frame attribute storage unit 26, the event video generation unit 270 determines whether the number of occurrences of the event included in the captured video MV supplied from the video storage unit 21 is 1 or more. Determine whether.

イベント動画生成部270は撮像動画MVに含まれるイベントの発生回数が1以上であると判定する場合(ステップS116;YES)、ステップS118の処理を実行する。一方、イベント動画生成部270は、撮像動画MVに含まれるイベントの発生回数が1以上でないと判定する場合(ステップS116;NO)、処理を終了する。   When the event moving image generating unit 270 determines that the number of occurrences of the event included in the captured moving image MV is 1 or more (step S116; YES), the event moving image generating unit 270 executes the process of step S118. On the other hand, if the event moving image generation unit 270 determines that the number of occurrences of the event included in the captured moving image MV is not 1 or more (step S116; NO), the process ends.

ステップS118:イベント動画生成部270は、イベント毎にイベント動画EVを生成する処理を繰り返す。 Step S118: The event moving image generating unit 270 repeats the process of generating the event moving image EV for each event.

ステップS120:イベント動画生成部270は、要約前イベント動画PEVを抽出する。ここでイベント動画生成部270は、フレーム属性記憶部26が供給するフレーム属性情報FPに基づいて、動画記憶部21が供給する撮像動画MVから、1つのイベントについてイベントフレームを抽出する。イベント動画生成部270は、1つのイベントについて抽出したイベントフレームから構成される動画を要約前イベント動画PEVとする。 Step S120: The event moving image generating unit 270 extracts the pre-summary event moving image PEV. Here, the event moving image generation unit 270 extracts an event frame for one event from the captured moving image MV supplied from the moving image storage unit 21 based on the frame attribute information FP supplied from the frame attribute storage unit 26. The event moving image generation unit 270 sets a moving image including event frames extracted for one event as a pre-summary event moving image PEV.

ステップS122:イベント動画生成部270は、抽出した要約前イベント動画PEVの時間の長さが所定の時間の長さ以上であるか否かを判定する。ここで所定の時間とは、例えば、3秒である。 Step S122: The event moving image generating unit 270 determines whether or not the extracted time length of the pre-summary event moving image PEV is equal to or longer than a predetermined time length. Here, the predetermined time is, for example, 3 seconds.

イベント動画生成部270は、要約前イベント動画PEVの時間の長さが所定の時間の長さ以上であると判定する場合(ステップS122;YES)、ステップS124の処理を実行する。一方、イベント動画生成部270は、要約前イベント動画PEVの時間の長さが所定の時間の長さ以上でないと判定する場合(ステップS122;NO)、処理を終了する。   When determining that the length of time of the pre-summarization event video PEV is equal to or longer than the predetermined time (step S122; YES), the event video generation unit 270 executes the process of step S124. On the other hand, when determining that the length of time of the pre-summary event video PEV is not equal to or longer than the predetermined time (step S122; NO), the event video generation unit 270 ends the process.

ステップS124:イベント動画生成部270は、イベント動画EVを生成する。イベント動画生成部270は、生成したイベント動画EVを出力部29に供給する。
ここで図6を参照し、イベント動画生成部270がイベント動画EVを生成方法について説明する。
Step S124: The event moving image generating unit 270 generates an event moving image EV. The event moving image generating unit 270 supplies the generated event moving image EV to the output unit 29.
Here, with reference to FIG. 6, a method of generating the event moving image EV by the event moving image generation unit 270 will be described.

図6は、本実施形態に係るイベント動画EVの生成方法の一例を示す図である。図6に示す例では、イベント動画生成部270は、要約前イベント動画PEV1からイベント動画EVを生成する。要約前イベント動画PEV1は、時間t10から時間t13までペットPのあるイベントについて撮像さている動画である。時間t10から時間t13まで、つまり要約前イベント動画PEV1の時間の長さは、3秒以上である。   FIG. 6 is a diagram illustrating an example of a method for generating the event moving image EV according to the present embodiment. In the example illustrated in FIG. 6, the event moving image generating unit 270 generates an event moving image EV from the pre-summary event moving image PEV1. The pre-summary event moving image PEV1 is a moving image captured of an event with the pet P from time t10 to time t13. From time t10 to time t13, that is, the length of time of the pre-summary event video PEV1 is 3 seconds or more.

イベント動画生成部270は、要約前イベント動画PEVの時間の長さが60秒より長い場合、要約前イベント動画PEV1の時間の長さを60秒以内に短縮する。ここでイベント動画生成部270は、要約前イベント動画PEV1の始めの部分と、終わりの部分とをそれぞれ所定の長さだけ削除することにより、要約前イベント動画PEV1の時間の長さを短縮する。   When the time length of the pre-summary event video PEV is longer than 60 seconds, the event video generation unit 270 reduces the time length of the pre-summary event video PEV1 within 60 seconds. Here, the event video generation unit 270 shortens the time length of the pre-summary event video PEV1 by deleting the start portion and the end portion of the pre-summary event video PEV1 by a predetermined length.

ここで、イベント動画生成部270は、ペットフレームの数が非ペットフレームの数よりも多くなるように要約前イベント動画PEVの時間の長さを短縮する。連続ペットフレーム判定部221が、非ペットフレームをシーン動画CVに含めない場合は、要約前イベント動画PEVには非ペットフレームは含まれない。
一方、連続ペットフレーム判定部221が非ペットフレームを、シーン動画CVに含めた場合、イベント動画生成部270は、ペットフレームの数が非ペットフレームの数よりも多くなるように要約前イベント動画PEVの時間の長さを短縮する。
Here, the event moving image generation unit 270 reduces the length of the pre-summary event moving image PEV so that the number of pet frames is larger than the number of non-pet frames. If the continuous pet frame determination unit 221 does not include a non-pet frame in the scene video CV, the non-pet frame is not included in the pre-summary event video PEV.
On the other hand, when the continuous pet frame determination unit 221 includes a non-pet frame in the scene video CV, the event video generation unit 270 causes the pre-summary event video PEV so that the number of pet frames is larger than the number of non-pet frames. Reduce the length of time.

図6に示す例では、始めの部分として部分動画P1が選択され、終わりの部分として部分動画P3が選択されている。イベント動画生成部270は、要約前イベント動画PEVから、部分動画P1と、部分動画P3とを削除し、部分動画P2とする。部分動画P2は、時間t11から時間t12までペットPのあるイベントについて撮像さている動画である。部分動画P2の時間の長さは、動画長さL11である。ここで動画長さL11は、60秒である。
イベント動画生成部270は、部分動画P2をイベント動画EVとする。
In the example shown in FIG. 6, the partial moving image P1 is selected as the first portion, and the partial moving image P3 is selected as the end portion. The event moving image generating unit 270 deletes the partial moving image P1 and the partial moving image P3 from the pre-summary event moving image PEV to obtain a partial moving image P2. The partial moving image P2 is a moving image captured for an event with the pet P from time t11 to time t12. The length of time of the partial video P2 is the video length L11. Here, the moving image length L11 is 60 seconds.
The event moving image generating unit 270 sets the partial moving image P2 as the event moving image EV.

このように、イベント動画生成部270は、ペットフレーム抽出部220が抽出したペットフレームの数が、動画取得部20が取得した動画を構成する複数のフレームのうちペットフレームを除くフレームである非ペットフレームの数よりも多い動画であるイベント動画EVを、動画取得部20が取得した撮像動画MVに基づいて生成する。   As described above, the event moving image generation unit 270 is a non-pet in which the number of pet frames extracted by the pet frame extraction unit 220 is a frame excluding the pet frame among a plurality of frames constituting the moving image acquired by the moving image acquisition unit 20. An event video EV that is a video that is larger than the number of frames is generated based on the captured video MV acquired by the video acquisition unit 20.

ここでイベント動画生成部270は、シーン動画CVの時間の長さを所定の長さ以下にしてイベント動画EVを生成する。したがって、イベント動画生成部270は、連続ペットフレーム判定部221が判定したペットフレームから構成されるシーン動画CV(要約前イベント動画PEV)に含まれる連続するペットフレームの数を所定の数以下にした動画(部分動画P2)に基づいてイベント動画EVを生成する。   Here, the event moving image generation unit 270 generates the event moving image EV by setting the time length of the scene moving image CV to a predetermined length or less. Therefore, the event moving image generating unit 270 reduces the number of continuous pet frames included in the scene moving image CV (pre-summary event moving image PEV) composed of the pet frames determined by the continuous pet frame determining unit 221 to a predetermined number or less. An event video EV is generated based on the video (partial video P2).

なお、イベント動画生成部270は、要約前イベント動画PEVの始めの部分を削除して、60秒以内に短縮してもよい。イベント動画生成部270は、要約前イベント動画PEVの終わりの部分を削除して、60秒以内に短縮してもよい。イベント動画生成部270は、要約前イベント動画PEVの途中の部分を削除して、60秒以内に短縮してもよい。   Note that the event moving image generation unit 270 may delete the first part of the pre-summary event moving image PEV and shorten it within 60 seconds. The event video generation unit 270 may delete the end part of the pre-summary event video PEV and shorten it within 60 seconds. The event moving image generation unit 270 may delete the middle part of the pre-summary event moving image PEV and shorten it within 60 seconds.

また、イベント動画生成部270は、要約前イベント動画PEVのいずれの部分を削除し60秒以内に短縮するかを、記憶部23に記憶される学習結果230に基づいて選択してもよい。イベント動画生成部270が要約前イベント動画PEVのいずれの部分を削除し60秒以内に短縮するかを、学習結果230に基づいて選択する場合、学習結果230には、ペットがよく撮像されている動画の判定結果が含まれてよい。   In addition, the event moving image generating unit 270 may select which part of the pre-summary event moving image PEV is to be deleted and shortened within 60 seconds based on the learning result 230 stored in the storage unit 23. When the event video generation unit 270 selects, based on the learning result 230, which part of the pre-summary event video PEV is to be deleted and shortened within 60 seconds, the pet is well imaged in the learning result 230 The determination result of the moving image may be included.

イベント動画生成部270は、生成したイベント動画EVに対する活動量を算出する。ここでイベント動画EVに対する活動量とは、イベント動画EVに含まれるペットフレーム毎に計測された活動量が、所定の時間間隔において集計された量である。所定の時間間隔とは、例えば、10秒である。   The event video generation unit 270 calculates an activity amount for the generated event video EV. Here, the amount of activity with respect to the event video EV is an amount obtained by counting the amount of activity measured for each pet frame included in the event video EV at a predetermined time interval. The predetermined time interval is, for example, 10 seconds.

図5に戻って、イベント動画EVの生成及び出力処理の説明を続ける。
ステップS126:サムネイル生成部28は、動画記憶部21が供給する撮像動画MVと、フレーム属性記憶部26が供給するフレーム属性情報FPとに基づいてサムネイルSNを生成する。サムネイル生成部28は、生成したサムネイルSNを出力部29に供給する。
Returning to FIG. 5, the description of the generation and output processing of the event moving image EV will be continued.
Step S126: The thumbnail generation unit 28 generates a thumbnail SN based on the captured moving image MV supplied from the moving image storage unit 21 and the frame attribute information FP supplied from the frame attribute storage unit 26. The thumbnail generation unit 28 supplies the generated thumbnail SN to the output unit 29.

なお、イベント動画生成部270により要約前イベント動画PEVがイベント動画EVに短縮される処理において削除した部分に、サムネイル選択部25が選択したイベントフレームが含まれる場合、サムネイル選択部25は、イベント動画生成部270が生成したイベント動画EVを構成する複数のイベントフレームのなかからサムネイルに対応するフレームを再度選択してもよい。この場合、サムネイル選択部25は、選択結果に基づいてフレーム属性情報FPを更新し、フレーム属性記憶部26に再度供給する。   If the event frame selected by the thumbnail selection unit 25 is included in the portion deleted by the event video generation unit 270 in the process of shortening the pre-summary event video PEV to the event video EV, the thumbnail selection unit 25 selects the event video You may select again the flame | frame corresponding to a thumbnail from the several event frame which comprises the event moving image EV which the production | generation part 270 produced | generated. In this case, the thumbnail selection unit 25 updates the frame attribute information FP based on the selection result, and supplies it again to the frame attribute storage unit 26.

ステップS128:要約動画出力部290は、イベント動画生成部270が供給するイベント動画EVを、端末装置3に出力する。サムネイル出力部291は、サムネイル生成部28が供給するこのイベント動画EVに対応するサムネイルSNを、端末装置3に出力する。 Step S128: The summary video output unit 290 outputs the event video EV supplied from the event video generation unit 270 to the terminal device 3. The thumbnail output unit 291 outputs the thumbnail SN corresponding to the event video EV supplied from the thumbnail generation unit 28 to the terminal device 3.

また、要約動画出力部290は、フレーム属性記憶部26が供給するフレーム属性情報FPが示すイベント発生回数を、端末装置3に出力する。したがって、要約動画出力部290は、要約動画生成部27が生成した要約動画(イベント動画EV)に加えて、イベント計数部241が計数したイベントの発生回数をさらに出力する。   In addition, the summary video output unit 290 outputs the number of event occurrences indicated by the frame attribute information FP supplied from the frame attribute storage unit 26 to the terminal device 3. Therefore, the summary video output unit 290 further outputs the number of event occurrences counted by the event counting unit 241 in addition to the summary video (event video EV) generated by the summary video generation unit 27.

また、要約動画出力部290は、イベント動画生成部270が算出したイベント動画EVに対する活動量を、端末装置3に出力する。
また、要約動画出力部290は、イベント動画EVに加えて、このイベント動画EVに含まれるイベントの開始時刻を示す情報を端末装置3に送信する。
また、要約動画出力部290は、イベント動画EVに加えて、このイベント動画EVに含まれるイベントの種類を示す情報を端末装置3に送信する。
The summary video output unit 290 outputs the amount of activity for the event video EV calculated by the event video generation unit 270 to the terminal device 3.
In addition to the event video EV, the summary video output unit 290 transmits information indicating the start time of the event included in the event video EV to the terminal device 3.
In addition to the event video EV, the summary video output unit 290 transmits information indicating the type of event included in the event video EV to the terminal device 3.

ステップS130:イベント動画生成部270は、イベント毎にイベント動画EVを生成する処理を終了する。 Step S130: The event moving image generating unit 270 ends the process of generating the event moving image EV for each event.

(サマリ動画の生成及び出力)
次に図7及び図8を参照し、サマリ動画SVの生成及び出力処理について説明する。
図7は、本実施形態に係るサマリ動画SV1の生成及び出力処理の一例を示す図である。図7に示す処理は、サマリ動画SVが生成される所定の周期において実行される。
(Generation and output of summary video)
Next, generation and output processing of the summary video SV will be described with reference to FIGS.
FIG. 7 is a diagram illustrating an example of generation and output processing of the summary video SV1 according to the present embodiment. The process shown in FIG. 7 is executed in a predetermined cycle in which the summary video SV is generated.

ステップS200:サマリ動画生成部271は、イベント動画生成部270が生成したイベント動画EVを取得する。ここでイベント動画生成部270が生成したイベント動画EVとは、サマリ動画生成部271がサマリ動画SVを前回生成してからイベント動画生成部270が生成したイベント動画EVである。イベント動画生成部270が生成したイベント動画EVが複数ある場合、サマリ動画生成部271は、複数のイベント動画EVを取得する。 Step S200: The summary video generation unit 271 acquires the event video EV generated by the event video generation unit 270. Here, the event video EV generated by the event video generation unit 270 is an event video EV generated by the event video generation unit 270 since the summary video generation unit 271 previously generated the summary video SV. When there are a plurality of event videos EV generated by the event video generator 270, the summary video generator 271 acquires a plurality of event videos EV.

ステップS202:サマリ動画生成部271は、取得したイベント動画EVに基づいてサマリ動画SVを生成する。 Step S202: The summary video generation unit 271 generates a summary video SV based on the acquired event video EV.

ここで図8を参照し、サマリ動画SV1の生成方法について説明する。
図8は、本実施形態に係るサマリ動画SV1の生成方法の一例を示す図である。図8(A)では、イベント動画生成部270が生成したイベント動画EV1〜PEV18が時系列に示されている。イベント動画EV1の時間の長さ、イベント動画EV2の時間の長さ、及びイベント動画EV3の時間の長さは、それぞれ動画長さL11(60秒)である。イベント動画EV4の時間の長さは、動画長さL12(例えば40秒)である。
イベント動画EV1〜PEV18のそれぞれの間には、非イベント動画NEV1、非イベント動画NEV2、…が存在している。非イベント動画NEV1、非イベント動画NEV2、…は、イベント動画EVと判定されなかったシーン動画CVである。
Here, with reference to FIG. 8, a method of generating the summary video SV1 will be described.
FIG. 8 is a diagram illustrating an example of a method for generating the summary video SV1 according to the present embodiment. In FIG. 8A, the event moving images EV1 to PEV18 generated by the event moving image generating unit 270 are shown in time series. The time length of the event video EV1, the time length of the event video EV2, and the time length of the event video EV3 are each a video length L11 (60 seconds). The time length of the event video EV4 is the video length L12 (for example, 40 seconds).
A non-event video NEV1, a non-event video NEV2,... Exist between each of the event videos EV1 to PEV18. The non-event video NEV1, the non-event video NEV2,... Are scene video CVs that have not been determined as event video EVs.

イベント動画EV1〜PEV18には、4種類のイベントが含まれる。イベント動画EV1、及びイベント動画EV10には、「水飲み」のイベントが含まれる。イベント動画EV4、及びイベント動画EV12には、「ごはん」のイベントが含まれる。イベント動画EV5、及びイベント動画EV17には、「トイレ」のイベントが含まれる。残りのイベント動画EV2、イベント動画EV3、イベント動画EV6〜PEV9、イベント動画EV11、イベント動画EV13〜PEV16、及びイベント動画EV18には、「カメラの前で動いている」のイベントが含まれる。   The event videos EV1 to PEV18 include four types of events. The event video EV1 and the event video EV10 include an event “drinking”. The event movie EV4 and the event movie EV12 include an event of “rice”. The event video EV5 and the event video EV17 include a “toilet” event. The remaining event video EV2, event video EV3, event video EV6 to PEV9, event video EV11, event video EV13 to PEV16, and event video EV18 include an event “moving in front of the camera”.

サマリ動画生成部271は、イベント動画EV1〜PEV18に基づいて動画長さL31のサマリ動画SVを生成する。ここで動画長さL31とは、例えば、60秒である。サマリ動画生成部271は、イベント動画EV1〜PEV18のなかから、サマリ動画SVを生成するためのイベント動画EVを選択する。サマリ動画生成部271は、選択したイベント動画EVを所定の時間の長さ以下に短縮し、60秒のサマリ動画SVを生成する。ここで所定の長さとは、例えば、7秒である。
したがって、図8に示す例では、サマリ動画生成部271は、イベント動画EV1〜PEV18のなかから、少なくとも9つのイベント動画EVを選択する。
The summary video generation unit 271 generates a summary video SV having a video length L31 based on the event videos EV1 to PEV18. Here, the moving image length L31 is, for example, 60 seconds. The summary video generation unit 271 selects an event video EV for generating a summary video SV from among the event videos EV1 to PEV18. The summary video generation unit 271 shortens the selected event video EV to be equal to or less than a predetermined time length, and generates a 60-second summary video SV. Here, the predetermined length is, for example, 7 seconds.
Therefore, in the example illustrated in FIG. 8, the summary moving image generation unit 271 selects at least nine event moving images EV from the event moving images EV1 to PEV18.

ただし、サマリ動画生成部271は、動画取得部20が取得した撮像動画MVに複数の種類のイベントが含まれる場合、イベント判定部240が判定したイベントフレームに基づいて、複数の種類のイベントがサマリ動画SVに含まれるようにサマリ動画SVを生成する。   However, if the captured video MV acquired by the video acquisition unit 20 includes multiple types of events, the summary video generation unit 271 summarizes the multiple types of events based on the event frame determined by the event determination unit 240. A summary video SV is generated so as to be included in the video SV.

図8(B)に示す例では、サマリ動画生成部271は、イベント動画EV1、イベント動画EV2、イベント動画EV4、イベント動画EV5、イベント動画EV9、イベント動画EV10、イベント動画EV12、イベント動画EV16、及びイベント動画EV18を、サマリ動画SVを生成するために選択する。これにより、「水飲み」、「カメラの前で動いている」、「ごはん」、及び「トイレ」の複数の種類のイベントがそれぞれサマリ動画SVに含まれる。   In the example shown in FIG. 8B, the summary video generation unit 271 includes an event video EV1, an event video EV2, an event video EV4, an event video EV5, an event video EV9, an event video EV10, an event video EV12, an event video EV16, and The event video EV18 is selected to generate a summary video SV. Accordingly, the summary video SV includes a plurality of types of events such as “drinking”, “moving in front of the camera”, “rice”, and “toilet”.

図8(C)に示すように、サマリ動画生成部271は、選択したイベント動画EV1を短縮して、動画長さL21の短縮イベント動画SEV1を生成する。ここで動画長さL21は、7秒以下である。同様に、サマリ動画生成部271は、残りの選択したイベント動画EV2、イベント動画EV4、…についてもそれぞれ7秒以下の長さに短縮し、短縮イベント動画SEV2、短縮イベント動画SEV4、…を生成する。ここでサマリ動画生成部271は、短縮イベント動画SEV1、短縮イベント動画SEV2、…の長さが均等になるように生成する。   As shown in FIG. 8C, the summary video generation unit 271 generates a shortened event video SEV1 having a video length L21 by shortening the selected event video EV1. Here, the moving image length L21 is 7 seconds or less. Similarly, the summary video generation unit 271 shortens the remaining selected event video EV2, event video EV4,... To a length of 7 seconds or less, and generates a shortened event video SEV2, a shortened event video SEV4,. . Here, the summary moving image generating unit 271 generates the shortened event moving image SEV1, the shortened event moving image SEV2,.

サマリ動画生成部271は、生成した短縮イベント動画SEV1、短縮イベント動画SEV2、短縮イベント動画SEV4、短縮イベント動画SEV5、短縮イベント動画SEV9、短縮イベント動画SEV10、短縮イベント動画SEV12、短縮イベント動画SEV16、及び短縮イベント動画SEV18を時系列の順に連結し、サマリ動画SV1とする。   The summary video generation unit 271 includes the generated short event video SEV1, the short event video SEV2, the short event video SEV4, the short event video SEV5, the short event video SEV9, the short event video SEV10, the short event video SEV12, the short event video SEV16, and The shortened event video SEV18 is concatenated in chronological order to obtain a summary video SV1.

サマリ動画SV1は、イベント動画EVに基づいて生成されているため、サマリ動画SV1では、ペットフレームの数が非ペットフレームの数よりも多い。したがって、サマリ動画生成部271は、ペットフレーム抽出部220が抽出したペットフレームの数が、動画取得部20が取得した動画を構成する複数のフレームのうちペットフレームを除くフレームである非ペットフレームの数よりも多い動画であるサマリ動画SVを、動画取得部20が取得した撮像動画MVに基づいて生成する。   Since the summary video SV1 is generated based on the event video EV, the summary video SV1 has more pet frames than non-pet frames. Therefore, the summary moving image generation unit 271 is a non-pet frame in which the number of pet frames extracted by the pet frame extraction unit 220 is a frame excluding the pet frame among a plurality of frames constituting the moving image acquired by the moving image acquisition unit 20. A summary video SV, which is more than the number of videos, is generated based on the captured video MV acquired by the video acquisition unit 20.

ここで、サマリ動画生成部271は、イベント動画EVの時間の長さを所定の長さ以下にしてサマリ動画SVを生成する。したがって、サマリ動画生成部271は、連続ペットフレーム判定部221が判定したペットフレームから構成されるシーン動画CV(要約前イベント動画PEV)に含まれる連続するペットフレームの数を所定の数以下にした動画(短縮イベント動画SEV1、短縮イベント動画SEV2、…)に基づいてサマリ動画SVを生成する。   Here, the summary moving image generation unit 271 generates the summary moving image SV by setting the time length of the event moving image EV to a predetermined length or less. Therefore, the summary video generation unit 271 sets the number of continuous pet frames included in the scene video CV (pre-summary event video PEV) composed of the pet frames determined by the continuous pet frame determination unit 221 to a predetermined number or less. A summary video SV is generated based on the video (short event video SEV1, short event video SEV2,...).

図7に戻って、サマリ動画SVの生成及び出力処理の説明を続ける。
ステップS204:サムネイル生成部28は、サマリ動画生成部271が生成したサマリ動画SVのサムネイルSNを生成する。ここでサムネイル生成部28は、動画記憶部21が供給する撮像動画MVと、フレーム属性記憶部26が供給するフレーム属性情報FPとに基づいて、撮像動画MVに含まれるイベント動画EVそれぞれについてサムネイルSNを生成する。サムネイル生成部28は、生成したサムネイルSNのうち、サマリ動画生成部271がサマリ動画SVを生成するために選択したイベント動画EVに対応するサムネイルSNから、サマリ動画SVのサムネイルSNを選択する。
Returning to FIG. 7, the description of the generation and output processing of the summary video SV will be continued.
Step S204: The thumbnail generation unit 28 generates the thumbnail SN of the summary video SV generated by the summary video generation unit 271. Here, the thumbnail generation unit 28 uses the captured image MV supplied from the moving image storage unit 21 and the frame attribute information FP supplied from the frame attribute storage unit 26 for each of the event SNs included in the imaged moving image MV. Is generated. The thumbnail generation unit 28 selects the thumbnail SN of the summary video SV from the thumbnail SNs corresponding to the event video EV selected by the summary video generation unit 271 to generate the summary video SV among the generated thumbnail SNs.

サムネイル生成部28は、例えば、サマリ動画生成部271がサマリ動画SVを生成するために選択したイベント動画EVに含まれる最も数の多い種類のイベントを含むイベント動画EVから、サマリ動画SVのサムネイルSNを選択する。
別の例では、サムネイル生成部28は、例えば、サマリ動画生成部271がサマリ動画SVを生成するために選択したイベント動画EVに含まれる最も時間の長い種類のイベントを含むイベント動画EVから、サマリ動画SVのサムネイルSNを選択する。
For example, the thumbnail generator 28 selects the thumbnail SN of the summary video SV from the event video EV including the most types of events included in the event video EV selected by the summary video generator 271 to generate the summary video SV. Select.
In another example, the thumbnail generation unit 28, for example, from the event video EV including the longest type of event included in the event video EV selected by the summary video generation unit 271 to generate the summary video SV. Select the thumbnail SN of the video SV.

さらに別の例では、サムネイル生成部28は、サマリ動画生成部271がサマリ動画SVを生成するために選択したイベント動画EVのうち、時系列の最も新しいイベント動画EVのサムネイルSNを、サマリ動画SVのサムネイルSNを選択してもよい。   In yet another example, the thumbnail generation unit 28 selects the thumbnail SN of the latest time-series event video EV among the event videos EV selected by the summary video generation unit 271 to generate the summary video SV. May be selected.

ステップS206:要約動画出力部290は、サマリ動画生成部271が供給するサマリ動画SVを端末装置3に出力する。サムネイル出力部291は、サムネイル生成部28が供給するこのサマリ動画SVに対応するサムネイルSNを、端末装置3に出力する。 Step S206: The summary video output unit 290 outputs the summary video SV supplied from the summary video generation unit 271 to the terminal device 3. The thumbnail output unit 291 outputs the thumbnail SN corresponding to the summary video SV supplied from the thumbnail generation unit 28 to the terminal device 3.

なお、図5のステップS128の処理及び図7のステップS206の処理では、要約動画出力部290は、要約動画Vが生成されると、端末装置3に生成された要約動画Vを出力する場合について説明したが、これに限らない。
要約動画出力部290は、まず要約動画Vに対応するサムネイルSNを端末装置3に出力し、端末装置3からのリクエストを取得した場合に、要約動画Vを出力してもよい。
In the process of step S128 of FIG. 5 and the process of step S206 of FIG. 7, the summary video output unit 290 outputs the summary video V generated on the terminal device 3 when the summary video V is generated. Although explained, it is not limited to this.
The summary video output unit 290 may first output the thumbnail SN corresponding to the summary video V to the terminal device 3 and output the summary video V when a request from the terminal device 3 is acquired.

(出力結果)
図9〜図12を参照し、ペット動画解析装置2の出力結果である端末装置3の画面の例について説明する。端末装置3の画面の例には、時系列画面G1、アルバム画面G2、活動量表示画面G3、及びレポート画面G4がある。
(Output result)
With reference to FIGS. 9-12, the example of the screen of the terminal device 3 which is an output result of the pet moving image analyzer 2 is demonstrated. Examples of the screen of the terminal device 3 include a time series screen G1, an album screen G2, an activity amount display screen G3, and a report screen G4.

図9は、本実施形態に係る時系列画面G1の一例を示す図である。時系列画面G1は、イベントが発生したことを、イベント動画EVをイベントが発生した時系列の順に並べて通知するための画面である。また、時系列画面G1には、1日に3回、サマリ動画SVが生成されたことが通知される。   FIG. 9 is a diagram illustrating an example of a time-series screen G1 according to the present embodiment. The time series screen G1 is a screen for notifying that an event has occurred, arranging the event moving images EV in the order of the time series in which the event occurred. Further, the time series screen G1 is notified that the summary video SV has been generated three times a day.

図9に示す時系列画面G1では、イベント動画EV1、及びイベント動画EV2が生成されたことが通知されている。時系列画面G1において、イベント動画EV1、及びイベント動画EV2は、イベントが発生した時系列の順に並べて表示される。   In the time series screen G1 shown in FIG. 9, it is notified that the event moving image EV1 and the event moving image EV2 have been generated. On the time series screen G1, the event video EV1 and the event video EV2 are displayed side by side in the order of the time series in which the events occurred.

時系列画面G1には、イベント動画EV1について、タイムスタンプT1、アイコンA1、メッセージM1が表示されている。時系列画面G1には、イベント動画EV2について、タイムスタンプT2、アイコンA2、メッセージM2が表示されている。   On the time series screen G1, a time stamp T1, an icon A1, and a message M1 are displayed for the event video EV1. On the time series screen G1, a time stamp T2, an icon A2, and a message M2 are displayed for the event video EV2.

タイムスタンプT1は、イベント動画EV1に含まれるイベントの開始時刻を示す。アイコンA1は、イベント動画EVとサマリ動画SVとの区別とともに、イベント動画EV1に含まれるイベントの種類を示す。メッセージM1は、イベント動画EV1に含まれるイベントの種類に応じた定型のテキストである。
タイムスタンプT2、アイコンA2、メッセージM2についても同様である。
The time stamp T1 indicates the start time of the event included in the event moving image EV1. The icon A1 indicates the type of event included in the event video EV1 along with the distinction between the event video EV and the summary video SV. The message M1 is a standard text corresponding to the type of event included in the event video EV1.
The same applies to the time stamp T2, the icon A2, and the message M2.

図10は、本実施形態に係るアルバム画面G2の一例を示す図である。アルバム画面G2は、アルバムALを閲覧するための画面である。ここでアルバムALとは、過去に生成されたイベント動画EV、及びサマリ動画SVが蓄積されたものである。
アルバム画面G2には、イベント動画EV、及びサマリ動画SVそれぞれのサムネイルSNと、カレンダーの情報が表示されている。サムネイルSN1は、イベント動画EVのサムネイルSNの一例である。カレンダー画像C1は、カレンダーの情報の一例である。
FIG. 10 is a diagram showing an example of the album screen G2 according to the present embodiment. The album screen G2 is a screen for browsing the album AL. Here, the album AL is an accumulation of event videos EV and summary videos SV generated in the past.
On the album screen G2, thumbnails SN of each of the event video EV and the summary video SV and calendar information are displayed. The thumbnail SN1 is an example of the thumbnail SN of the event video EV. The calendar image C1 is an example of calendar information.

図11は、本実施形態に係る活動量表示画面G3の一例を示す図である。活動量表示画面G3は、イベント動画EV毎に集計された活動量を確認するための画面である。活動量表示画面G3には、イベント動画EVのサムネイルSNと、一日の活動量を示す活動量グラフAGが表示される。
サムネイルSNは、イベントが発生した時系列の順に並べて表示される。サムネイルSN2は、イベント動画EVのサムネイルSNの一例である。
FIG. 11 is a diagram illustrating an example of the activity amount display screen G3 according to the present embodiment. The activity amount display screen G3 is a screen for confirming the activity amount totaled for each event video EV. On the activity amount display screen G3, a thumbnail SN of the event video EV and an activity amount graph AG indicating the daily activity amount are displayed.
The thumbnails SN are displayed side by side in the order of time series in which events have occurred. The thumbnail SN2 is an example of the thumbnail SN of the event video EV.

図12は、本実施形態に係るレポート画面G4の一例を示す図である。レポート画面G4は、イベントのうち「水飲み」、「ごはん」、及び「トイレ」のそれぞれの一日の回数をグラフにより表示するための画面である。レポート画面G4では、水飲み回数グラフCG1、ごはん回数グラフCG2、及びトイレ回数グラフCG3が表示されている。   FIG. 12 is a diagram illustrating an example of a report screen G4 according to the present embodiment. The report screen G4 is a screen for displaying the number of times each day of “drinking”, “rice”, and “toilet” among events in a graph. In the report screen G4, a drinking frequency graph CG1, a rice frequency graph CG2, and a toilet frequency graph CG3 are displayed.

以上に説明したように、本実施形態に係るペット動画解析装置2は、動画取得部20と、ペットフレーム抽出部220と、要約動画生成部27と、要約動画出力部290とを備える。
動画取得部20は、ペットPが撮像された動画(撮像動画MV)を取得する。
ペットフレーム抽出部220は、動画取得部20が取得した動画(撮像動画MV)を構成する複数のフレームから、ペットPが撮像されているフレームであるペットフレームを抽出する。
要約動画生成部27は、ペットフレーム抽出部220が抽出したペットフレームの数が、動画取得部20が取得した動画(撮像動画MV)を構成する複数のフレームのうちペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画Vを、動画取得部20が取得した動画(撮像動画MV)に基づいて生成する。
As described above, the pet video analysis apparatus 2 according to the present embodiment includes the video acquisition unit 20, the pet frame extraction unit 220, the summary video generation unit 27, and the summary video output unit 290.
The moving image acquisition unit 20 acquires a moving image (captured moving image MV) in which the pet P is imaged.
The pet frame extraction unit 220 extracts a pet frame, which is a frame in which the pet P is captured, from a plurality of frames constituting the moving image (captured moving image MV) acquired by the moving image acquisition unit 20.
In the summary video generation unit 27, the number of pet frames extracted by the pet frame extraction unit 220 is a frame excluding the pet frame from among a plurality of frames constituting the video (captured video MV) acquired by the video acquisition unit 20. A summary video V that is a video larger than the number of pet frames is generated based on the video (captured video MV) acquired by the video acquisition unit 20.

この構成により、本実施形態に係るペット動画解析装置2では、ペットPが撮像されている場面の割合が、ペットPが撮像されていない場面の割合よりも多い動画を出力できるため、ペットPを効率よく見守ることができる。   With this configuration, the pet video analyzing apparatus 2 according to the present embodiment can output a video in which the ratio of the scene where the pet P is captured is larger than the ratio of the scene where the pet P is not captured. You can watch efficiently.

また、本実施形態に係るペット動画解析装置2は、連続ペットフレーム判定部221をさらに備える。
連続ペットフレーム判定部221は、ペットフレーム抽出部220が抽出したペットフレームのなかから、動画取得部20が取得した動画(撮像動画MV)において連続するペットフレームを判定する。
また、要約動画生成部27は、連続ペットフレーム判定部221が判定したペットフレームから構成されるシーン動画CVに含まれる連続するペットフレームの数を所定の数以下にした動画(部分動画P2、短縮イベント動画SEV1、短縮イベント動画SEV2、…)に基づいて要約動画Vを生成する。
The pet video analysis apparatus 2 according to the present embodiment further includes a continuous pet frame determination unit 221.
The continuous pet frame determination unit 221 determines a continuous pet frame in the moving image (captured moving image MV) acquired by the moving image acquisition unit 20 from the pet frames extracted by the pet frame extraction unit 220.
In addition, the summary moving image generating unit 27 is a moving image (partial moving image P2, shortened) in which the number of continuous pet frames included in the scene moving image CV composed of the pet frames determined by the continuous pet frame determining unit 221 is equal to or less than a predetermined number. A summary video V is generated based on the event video SEV1, the shortened event video SEV2,.

この構成により、本実施形態に係るペット動画解析装置2では、動画(撮像動画MV)に含まれるシーン毎に要約動画Vを生成できるため、シーン毎にペットPを効率よく見守ることができる。   With this configuration, the pet moving image analysis apparatus 2 according to the present embodiment can generate the summary moving image V for each scene included in the moving image (captured moving image MV), and thus can efficiently watch the pet P for each scene.

また、本実施形態に係るペット動画解析装置2は、サムネイル選択部25をさらに備える。
サムネイル選択部25は、シーン動画CVに含まれる連続するペットフレームのなかからサムネイル画像(サムネイルSN)に対応するペットフレームを選択する。
The pet video analysis apparatus 2 according to the present embodiment further includes a thumbnail selection unit 25.
The thumbnail selection unit 25 selects a pet frame corresponding to a thumbnail image (thumbnail SN) from continuous pet frames included in the scene video CV.

この構成により、本実施形態に係るペット動画解析装置2では、要約動画Vに対するサムネイル画像(サムネイルSN)を端末装置3に表示できるため、要約動画Vを再生する前に要約動画Vの内容の概略を確認できる。   With this configuration, the pet video analysis apparatus 2 according to the present embodiment can display a thumbnail image (thumbnail SN) for the summary video V on the terminal device 3, so that the summary video V is outlined before the summary video V is played back. Can be confirmed.

また、本実施形態に係るペット動画解析装置2は、イベント判定部240をさらに備える。
イベント判定部240は、連続ペットフレーム判定部221が判定したペットフレームが、予め登録されているペットPの行動を示すイベントが撮像されているフレームであるイベントフレームであるか否かを判定する。
In addition, the pet video analysis device 2 according to the present embodiment further includes an event determination unit 240.
The event determination unit 240 determines whether the pet frame determined by the continuous pet frame determination unit 221 is an event frame that is a frame in which an event indicating the behavior of the pet P registered in advance is captured.

この構成により、本実施形態に係るペット動画解析装置2では、シーン動画CVに含まれるイベントを判定できるため、イベント毎にペットPを効率よく見守ることができる。   With this configuration, the pet video analysis apparatus 2 according to the present embodiment can determine an event included in the scene video CV, and thus can efficiently monitor the pet P for each event.

また、本実施形態に係るペット動画解析装置2は、イベント計数部241をさらに備える。
イベント計数部241は、イベント判定部240がイベントフレームであると判定したペットフレームと、連続ペットフレーム判定部221が判定した連続するペットフレームとに基づいてイベントの発生回数を数える。
要約動画出力部290は、要約動画生成部27が生成した要約動画Vに加えて、イベント計数部241が計数したイベントの発生回数をさらに出力する。
In addition, the pet video analysis device 2 according to the present embodiment further includes an event counting unit 241.
The event counting unit 241 counts the number of occurrences of an event based on the pet frame determined by the event determination unit 240 as an event frame and the continuous pet frame determined by the continuous pet frame determination unit 221.
The summary video output unit 290 further outputs the number of event occurrences counted by the event counting unit 241 in addition to the summary video V generated by the summary video generation unit 27.

この構成により、本実施形態に係るペット動画解析装置2では、シーン動画CVに含まれるイベントの発生回数を通知できるため、イベントの発生回数を確認することができる。   With this configuration, the pet video analysis apparatus 2 according to the present embodiment can notify the number of occurrences of an event included in the scene video CV, so that the number of event occurrences can be confirmed.

また、本実施形態に係るペット動画解析装置2では、要約動画生成部27は、動画取得部20が取得した動画(撮像動画MV)に複数の種類のイベントが含まれる場合、イベント判定部240が判定したイベントフレームに基づいて、複数の種類のイベントが要約動画Vに含まれるように要約動画Vを生成する。   In the pet video analysis device 2 according to the present embodiment, the summary video generation unit 27 includes the event determination unit 240 when the video (captured video MV) acquired by the video acquisition unit 20 includes a plurality of types of events. Based on the determined event frame, the summary video V is generated so that a plurality of types of events are included in the summary video V.

この構成により、本実施形態に係るペット動画解析装置2では、要約動画Vに複数の種類のイベントを含めることができるため、要約動画Vが単調な内容になることを防ぐことができる。   With this configuration, the pet video analysis apparatus 2 according to the present embodiment can include a plurality of types of events in the summary video V, so that the summary video V can be prevented from becoming monotonous.

また、本実施形態に係るペット動画解析装置2では、イベント判定部240は、ペットフレーム抽出部220が抽出したペットフレームに撮像されている場所によってイベントの種類を判定する。   Further, in the pet video analysis apparatus 2 according to the present embodiment, the event determination unit 240 determines the type of event based on the location imaged in the pet frame extracted by the pet frame extraction unit 220.

この構成により、本実施形態に係るペット動画解析装置2では、ペットフレームに撮像されている場所によってイベントの種類を判定できるため、画像認識の技術だけを用いてイベントの種類を判定する場合に比べてイベントの種類を簡便に判定することができる。   With this configuration, the pet video analysis apparatus 2 according to the present embodiment can determine the type of event based on the location imaged in the pet frame, and therefore, compared to a case where the type of event is determined using only the image recognition technology. The type of event can be easily determined.

本発明においては、動画解析によりペットPの病気の予兆となるような行動を検出することにより、将来の病気のリスクを予防するなど、ペットの健康管理を行うことに用いられてもよい。このペットの健康管理には、図12のレポート画面G4において表示されるイベントの発生回数が用いられてもよい。   In the present invention, it may be used for performing pet health management such as preventing a risk of a future disease by detecting an action that is a sign of a disease of the pet P by moving image analysis. For the health management of the pet, the number of occurrences of the event displayed on the report screen G4 of FIG. 12 may be used.

(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
上記第1の実施形態では、ペット動画解析装置は、ペットが特定のペットであるか否かを判定せずにペット(一例として、猫)が撮像された動画を解析する場合について説明をした。本実施形態では、ペット動画解析装置が、ペットが特定のペット(一例として、特定の猫)であるか否かを判定してペットが撮像された動画を解析する場合について説明をする。
本実施形態に係るペット動画解析装置をペット動画解析装置2aといい、端末装置を端末装置3aという。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described in detail with reference to the drawings.
In the said 1st Embodiment, the pet moving image analyzer demonstrated the case where it analyzed the moving image by which the pet (cat as an example) was imaged, without determining whether a pet is a specific pet. In the present embodiment, a case will be described in which the pet moving image analysis apparatus determines whether a pet is a specific pet (a specific cat as an example) and analyzes a moving image in which the pet is imaged.
The pet video analysis device according to the present embodiment is referred to as a pet video analysis device 2a, and the terminal device is referred to as a terminal device 3a.

図13は、本実施形態に係るペット動画解析装置2aの機能構成の一例を示す図である。本実施形態に係るペット動画解析装置2a(図13)と第1の実施形態に係るペット動画解析装置2(図2)とを比較すると、動画記憶部21a、記憶部23a、フレーム属性記憶部26a、ペット判定部30a、評価取得部31a、及び出力部29aが異なる。ここで、他の構成要素(動画取得部20、シーン判定部22、イベント解析部24、サムネイル選択部25、要約動画生成部27、及びサムネイル生成部28)が持つ機能は第1の実施形態と同じである。第1の実施形態と同じ機能の説明は省略し、第2の実施形態では、第1の実施形態と異なる部分を中心に説明する。   FIG. 13 is a diagram illustrating an example of a functional configuration of the pet video analysis apparatus 2a according to the present embodiment. When the pet moving image analysis apparatus 2a (FIG. 13) according to the present embodiment is compared with the pet moving image analysis apparatus 2 (FIG. 2) according to the first embodiment, the moving image storage unit 21a, the storage unit 23a, and the frame attribute storage unit 26a. The pet determination unit 30a, the evaluation acquisition unit 31a, and the output unit 29a are different. Here, the functions of other components (the moving image acquisition unit 20, the scene determination unit 22, the event analysis unit 24, the thumbnail selection unit 25, the summary moving image generation unit 27, and the thumbnail generation unit 28) are the same as those in the first embodiment. The same. The description of the same functions as those in the first embodiment will be omitted, and in the second embodiment, description will be made focusing on parts different from the first embodiment.

動画記憶部21aは、記憶している撮像動画MVを、シーン判定部22、イベント解析部24、サムネイル選択部25、及び要約動画生成部27に加えて、ペット判定部30aに供給する。   The moving image storage unit 21a supplies the stored captured moving image MV to the pet determination unit 30a in addition to the scene determination unit 22, the event analysis unit 24, the thumbnail selection unit 25, and the summary moving image generation unit 27.

記憶部23aには、学習結果230と、イベント情報231とに加えて、ペット情報232aが記憶される。
ペット情報232aとは、特定のペットPを示す情報である。ペット情報232aは、ペットPの名前と、ペットPの画像を判定するため機械学習による学習結果とが対応づけられた情報である。ペットPの画像を判定するため機械学習は、例えば、利用者によって予め登録されるペットPの全身の画像や、ペットPの顔の画像を用いて実行される。
In addition to the learning result 230 and the event information 231, the storage unit 23a stores pet information 232a.
The pet information 232a is information indicating a specific pet P. The pet information 232a is information in which the name of the pet P is associated with the learning result by machine learning to determine the image of the pet P. Machine learning for determining an image of the pet P is executed using, for example, an image of the whole body of the pet P registered in advance by the user or an image of the face of the pet P.

ペット判定部30aは、ペットフレーム抽出部220が抽出したペットフレームに撮像されたペットが特定のペットPであるか否かを判定する。ここでペット判定部30aは、記憶部23aに記憶されるペット情報232aに基づいて判定する。 The pet determination unit 30 a determines whether or not the pet imaged in the pet frame extracted by the pet frame extraction unit 220 is a specific pet P. Here, the pet determination unit 30a determines based on the pet information 232a stored in the storage unit 23a.

また、ペット判定部30aは、評価取得部31aが取得した評価に基づいて動画取得部20が取得した撮像動画MVに撮像されたペットが特定のペットPであるか否かを判定する。ここで評価取得部31aが取得した評価とは、評価取得部31aが判定した結果が通知されたことに応じて得られる評価である。この評価とは、ペット判定部30aが判定したペットの判定結果が正しいか否かについて利用者により行われる評価である。結果が通知されたことに応じて得られる評価とは、例えば、猫種(ペットPが犬の場合は犬種)が同一であるなど、外見が似通っている個別のペットPの判定に際し、ペットPを正しく特定していたり、間違っていたりする場合に、利用者が正誤を入力するフィードバックである。   In addition, the pet determination unit 30a determines whether the pet imaged in the captured moving image MV acquired by the moving image acquisition unit 20 is a specific pet P based on the evaluation acquired by the evaluation acquisition unit 31a. Here, the evaluation acquired by the evaluation acquisition unit 31a is an evaluation obtained in response to the notification of the result determined by the evaluation acquisition unit 31a. This evaluation is an evaluation performed by the user as to whether or not the pet determination result determined by the pet determination unit 30a is correct. The evaluation obtained in response to the notification of the result is, for example, the determination of individual pets P that are similar in appearance such as the same cat type (or dog type if the pet P is a dog). This is feedback for the user to input correct / incorrect when P is correctly specified or incorrect.

ここで図14を参照し、ペット判定部30aの判定結果について説明する。
図14は、本実施形態に係る撮像動画MVの解析結果の一例を示す図である。ペット判定部30aは、ペットフレーム抽出部220が抽出したペットフレームであるフレームFN3、フレームFN5、及びフレームFN6に撮像されたペットが「タマ」の名前をもつ特定のペットPであるか否かを判定する。
Here, the determination result of the pet determination unit 30a will be described with reference to FIG.
FIG. 14 is a diagram illustrating an example of an analysis result of the captured moving image MV according to the present embodiment. The pet determination unit 30a determines whether the pet imaged in the frames FN3, FN5, and FN6, which are the pet frames extracted by the pet frame extraction unit 220, is a specific pet P having the name “Tama”. judge.

図14に示す例では、フレームFN3、フレームFN5、及びフレームFN6に撮像されたペットが、「タマ」の名前をもつ特定のペットPであると判定されている。ペット判定部30aは、判定結果に基づいてペット判定情報Nを生成する。ここでペット判定情報Nとは、撮像動画MVを構成する複数のフレームのフレーム番号と、ペット判定部30aが判定した結果とが対応づけられた情報である。   In the example illustrated in FIG. 14, the pet imaged in the frame FN3, the frame FN5, and the frame FN6 is determined to be a specific pet P having the name “Tama”. The pet determination unit 30a generates pet determination information N based on the determination result. Here, the pet determination information N is information in which the frame numbers of a plurality of frames constituting the captured moving image MV are associated with the results determined by the pet determination unit 30a.

なお、ペット判定部30aは、複数のペットを判定してもよい。ペット判定部30aが複数のペットを判定する場合、ペット情報232aには、複数のペット毎に、ペットの名前と、ペットの画像を判定するため機械学習による学習結果とが対応づけられた情報が含まれる。
ペット判定部30aが複数のペットを判定する場合、ペット判定情報Nは、撮像動画MVを構成する複数のフレームのフレーム番号毎に、例えば、ペットの名前が対応づけられた情報となる。
The pet determination unit 30a may determine a plurality of pets. When the pet determination unit 30a determines a plurality of pets, the pet information 232a includes information in which a pet name is associated with a learning result by machine learning for determining a pet image for each of the plurality of pets. included.
When the pet determination unit 30a determines a plurality of pets, the pet determination information N is information in which, for example, pet names are associated with frame numbers of a plurality of frames constituting the captured moving image MV.

図13に戻って、ペット動画解析装置2aの構成の説明を続ける。   Returning to FIG. 13, the description of the configuration of the pet moving image analysis apparatus 2 a will be continued.

評価取得部31aは、ペット判定部30aが判定した結果が通知されたことに応じて得られる評価を、端末装置3から取得する。   The evaluation acquisition unit 31a acquires, from the terminal device 3, an evaluation obtained in response to the notification of the result determined by the pet determination unit 30a.

フレーム属性記憶部26は、ペット判定部30aが供給するペット判定情報Nを要約動画生成部27に供給する。   The frame attribute storage unit 26 supplies the pet determination information N supplied from the pet determination unit 30 a to the summary video generation unit 27.

出力部29aは、要約動画出力部290と、サムネイル出力部291とに加えて、ペット判定結果通知部292aを備える。
ペット判定結果通知部292aは、ペット判定部30aが判定した結果を、端末装置3aに通知する。
The output unit 29a includes a pet determination result notification unit 292a in addition to the summary video output unit 290 and the thumbnail output unit 291.
The pet determination result notification unit 292a notifies the terminal device 3a of the result determined by the pet determination unit 30a.

次に図15を参照し、ペット動画解析装置2aのペット判定処理について説明する。
図15は、本実施形態に係るペット判定処理の一例を示す図である。図5に示す処理は、所定の周期(例えば、1時間)において実行される。なお、ステップS300、及びステップS302の各処理は、図5におけるステップS100、及びステップS102の各処理と同様であるため、説明を省略する。
Next, with reference to FIG. 15, the pet determination process of the pet video analyzing apparatus 2a will be described.
FIG. 15 is a diagram illustrating an example of a pet determination process according to the present embodiment. The process shown in FIG. 5 is executed in a predetermined cycle (for example, 1 hour). In addition, since each process of step S300 and step S302 is the same as each process of step S100 in FIG. 5, and step S102, description is abbreviate | omitted.

ステップS304:ペット判定部30aは、評価取得部31aが端末装置3aから評価を取得したか否かを判定する。ここでペット判定部30aは、評価取得部31aから評価が供給される場合、評価取得部31aが端末装置3aから評価を取得したと判定する。 Step S304: The pet determination unit 30a determines whether or not the evaluation acquisition unit 31a has acquired an evaluation from the terminal device 3a. Here, when the evaluation is supplied from the evaluation acquisition unit 31a, the pet determination unit 30a determines that the evaluation acquisition unit 31a has acquired the evaluation from the terminal device 3a.

ペット判定部30aは、評価取得部31aが端末装置3aから評価を取得したと判定する場合(ステップS304;YES)、ステップS306の処理を実行する。一方、ペット判定部30aは、評価取得部31aが端末装置3aから評価を取得していないと判定する場合(ステップS304;NO)、ステップS308の処理を実行する。   When it is determined that the evaluation acquisition unit 31a has acquired the evaluation from the terminal device 3a (step S304; YES), the pet determination unit 30a executes the process of step S306. On the other hand, when it is determined that the evaluation acquisition unit 31a has not acquired the evaluation from the terminal device 3a (step S304; NO), the pet determination unit 30a executes the process of step S308.

ステップS306:ペット判定部30aは、評価取得部31aが供給する評価に基づいて、記憶部23に記憶されるペット情報232aを更新する。ここでペット判定部30aは、ペット情報232aに含まれる、ペットの画像を判定するため機械学習による学習結果を更新する。ペット判定部30aは、評価取得部31aが供給する評価を教師データとして利用し、再学習を行うことにより、判定の精度を向上させる。
なお、ペット判定部30aが判定を行うために用いる機械学習モデルは、必ずしもあらゆるペットPを個々に特定する単一のモデルとして汎化性能を備える必要はなく、特定の撮像環境における判定の精度を向上させることを目的として学習されてよい。
Step S306: The pet determination unit 30a updates the pet information 232a stored in the storage unit 23 based on the evaluation supplied by the evaluation acquisition unit 31a. Here, the pet determination unit 30a updates a learning result by machine learning to determine a pet image included in the pet information 232a. The pet determination unit 30a uses the evaluation supplied by the evaluation acquisition unit 31a as teacher data and performs relearning to improve the determination accuracy.
Note that the machine learning model used by the pet determination unit 30a for determination does not necessarily have generalization performance as a single model that individually specifies every pet P, and the accuracy of determination in a specific imaging environment is not necessarily provided. It may be learned for the purpose of improving.

ステップS308:ペット判定部30aは、ペット判定部30aは、記憶部23aに記憶されるペット情報232aに基づいて、ペットフレーム抽出部220が抽出したペットフレームに撮像されたペットが特定のペットPであるか否かを判定する。ここで特定のペットPとは、ペット情報232aが示すペットである。
ペット判定部30aは、判定結果に基づいてペット判定情報Nを生成する。ペット判定部30aは、生成したペット判定情報Nをフレーム属性記憶部26aに供給する。
Step S308: The pet determination unit 30a determines that the pet determined by the pet frame extracted by the pet frame extraction unit 220 is a specific pet P based on the pet information 232a stored in the storage unit 23a. It is determined whether or not there is. Here, the specific pet P is a pet indicated by the pet information 232a.
The pet determination unit 30a generates pet determination information N based on the determination result. The pet determination unit 30a supplies the generated pet determination information N to the frame attribute storage unit 26a.

ステップS310:ペット判定結果通知部292aは、フレーム属性記憶部26aが供給するペット判定情報Nに基づいて、ペット判定部30aの判定結果を端末装置3aに通知する。ここでペット判定結果通知部292aは、ペット判定部30aの判定結果を要約動画V(イベント動画EV、及びサマリ動画SV)に対応づけて通知する。 Step S310: The pet determination result notifying unit 292a notifies the terminal device 3a of the determination result of the pet determining unit 30a based on the pet determination information N supplied from the frame attribute storage unit 26a. Here, the pet determination result notification unit 292a notifies the determination result of the pet determination unit 30a in association with the summary video V (the event video EV and the summary video SV).

端末装置3aに表示される時系列画面G1において、ペット判定部30aの判定結果は、要約動画V(イベント動画EV、及びサマリ動画SV)とともに表示される。例えば、時系列画面G1には、タイムスタンプT1や、アイコンA1などとともに、判定結果としてペットPの名前が表示される。   In the time series screen G1 displayed on the terminal device 3a, the determination result of the pet determination unit 30a is displayed together with the summary video V (the event video EV and the summary video SV). For example, on the time series screen G1, the name of the pet P is displayed as a determination result together with the time stamp T1, the icon A1, and the like.

以上に説明したように、本実施形態に係るペット動画解析装置2aは、ペット判定部30aと、ペット判定結果通知部292aとを備える。
ペット判定部30aは、ペットフレーム抽出部220が抽出したペットフレームに撮像されたペットが特定のペットPであるか否かを判定する。
ペット判定結果通知部292aは、ペット判定部30aが判定した結果を通知する。
As described above, the pet moving image analysis apparatus 2a according to the present embodiment includes the pet determination unit 30a and the pet determination result notification unit 292a.
The pet determination unit 30 a determines whether or not the pet imaged in the pet frame extracted by the pet frame extraction unit 220 is a specific pet P.
The pet determination result notifying unit 292a notifies the result determined by the pet determining unit 30a.

この構成により、本実施形態に係るペット動画解析装置2aでは、特定のペットと他のペットとを区別することができるため、ペット毎にペットを効率よく見守ることができる。   With this configuration, the pet video analyzing apparatus 2a according to the present embodiment can distinguish a specific pet from other pets, and therefore can efficiently monitor a pet for each pet.

また、本実施形態に係るペット動画解析装置2aは、評価取得部31aを備える。
評価取得部31aは、ペット判定部30aが判定した結果が通知されたことに応じて得られる評価を取得する。
ペット判定部30aは、評価取得部31aが取得した評価に基づいて動画取得部20が取得した動画(撮像動画MV)に撮像されたペットが特定のペットPであるか否かを判定する。
In addition, the pet video analyzing apparatus 2a according to the present embodiment includes an evaluation acquisition unit 31a.
The evaluation acquisition unit 31a acquires an evaluation obtained in response to the notification of the result determined by the pet determination unit 30a.
The pet determination unit 30a determines whether or not the pet imaged in the moving image (captured moving image MV) acquired by the moving image acquisition unit 20 is a specific pet P based on the evaluation acquired by the evaluation acquisition unit 31a.

この構成により、本実施形態に係るペット動画解析装置2aでは、ペット判定部30aが判定した結果が通知されたことに応じて得られる評価に基づいて特定のペットPであるか否かを判定できるため、判定の精度を向上させることができる。   With this configuration, the pet video analyzing apparatus 2a according to the present embodiment can determine whether or not the pet is a specific pet P based on the evaluation obtained in response to the notification of the result determined by the pet determination unit 30a. Therefore, the accuracy of determination can be improved.

(第3の実施形態)
以下、図面を参照しながら本発明の第3の実施形態について詳しく説明する。
本実施形態では、ペット動画解析装置が、要約動画として短縮される前の動画や、利用者が録画した動画を保存し、それらの動画を端末装置からのリクエストに応じて端末装置に出力する場合について説明をする。
本実施形態に係るペット動画解析装置をペット動画解析装置2bといい、端末装置を端末装置3bという。
(Third embodiment)
Hereinafter, the third embodiment of the present invention will be described in detail with reference to the drawings.
In the present embodiment, when the pet video analysis device stores a video before being shortened as a summary video or a video recorded by a user, and outputs the video to the terminal device in response to a request from the terminal device Will be explained.
The pet video analysis device according to the present embodiment is referred to as a pet video analysis device 2b, and the terminal device is referred to as a terminal device 3b.

図16は、本実施形態に係るペット動画解析装置2bの機能構成の一例を示す図である。本実施形態に係るペット動画解析装置2b(図16)と第1の実施形態に係るペット動画解析装置2(図2)とを比較すると、動画記憶部21b、記憶部23b、フレーム属性記憶部26b、出力部29b、リクエスト取得部32b、及びアーカイブ動画管理部33bが異なる。ここで、他の構成要素(動画取得部20、シーン判定部22、イベント解析部24、サムネイル選択部25、要約動画生成部27、及びサムネイル生成部28)が持つ機能は第1の実施形態と同じである。第1の実施形態と同じ機能の説明は省略し、第3の実施形態では、第1の実施形態と異なる部分を中心に説明する。   FIG. 16 is a diagram illustrating an example of a functional configuration of the pet moving image analysis apparatus 2b according to the present embodiment. When the pet moving image analysis device 2b (FIG. 16) according to the present embodiment is compared with the pet moving image analysis device 2 (FIG. 2) according to the first embodiment, the moving image storage unit 21b, the storage unit 23b, and the frame attribute storage unit 26b. The output unit 29b, the request acquisition unit 32b, and the archive video management unit 33b are different. Here, the functions of other components (the moving image acquisition unit 20, the scene determination unit 22, the event analysis unit 24, the thumbnail selection unit 25, the summary moving image generation unit 27, and the thumbnail generation unit 28) are the same as those in the first embodiment. The same. The description of the same functions as those in the first embodiment will be omitted, and in the third embodiment, description will be made centering on parts different from the first embodiment.

動画記憶部21bは、記憶している撮像動画MVを、シーン判定部22、イベント解析部24、サムネイル選択部25、及び要約動画生成部27に加えて、アーカイブ動画管理部33bに供給する。   The moving image storage unit 21b supplies the stored captured moving image MV to the archive moving image management unit 33b in addition to the scene determination unit 22, the event analysis unit 24, the thumbnail selection unit 25, and the summary moving image generation unit 27.

記憶部23bには、学習結果230と、イベント情報231とに加えて、シーン動画233bと、録画動画234bとが記憶される。
シーン動画233bとは、イベント判定部240によりイベントが含まれると判定されたシーン動画CV(要約前イベント動画PEV)である。シーン動画233bの時間の長さは、60秒以上である場合がある。
録画動画234bとは、ペット動画解析装置2bが撮像装置1から取得される撮像動画MVを即時に端末装置3bに出力する場合に、この撮像動画MVが録画された動画である。
シーン動画233bと、録画動画234bとをまとめてアーカイブ動画という。
In addition to the learning result 230 and the event information 231, the storage unit 23b stores a scene moving image 233b and a recorded moving image 234b.
The scene video 233b is a scene video CV (pre-summary event video PEV) determined by the event determination unit 240 to include an event. The time length of the scene video 233b may be 60 seconds or more.
The recorded moving image 234b is a moving image in which the captured moving image MV is recorded when the pet moving image analysis device 2b immediately outputs the captured moving image MV acquired from the imaging device 1 to the terminal device 3b.
The scene video 233b and the recorded video 234b are collectively referred to as an archive video.

フレーム属性記憶部26bは、イベント解析部24が供給するフレーム属性情報FPをアーカイブ動画管理部33bに供給する。   The frame attribute storage unit 26b supplies the frame attribute information FP supplied from the event analysis unit 24 to the archive moving image management unit 33b.

リクエスト取得部32bは、アーカイブ動画リクエスト取得部320bと、ライブ動画リクエスト取得部321bとを備える。
アーカイブ動画リクエスト取得部320bは、アーカイブ動画リクエスト命令を端末装置3bから取得する。ここでアーカイブ動画リクエスト命令とは、アーカイブ動画をペット動画解析装置2に出力させるための命令である。アーカイブ動画リクエスト命令は、アーカイブ動画のリストを出力させるための命令と、特定のアーカイブ動画を出力させるための命令とを含む。
アーカイブ動画リクエスト取得部320bは、アーカイブ動画リクエスト命令を取得すると、アーカイブ動画管理部33bに供給する。
The request acquisition unit 32b includes an archive video request acquisition unit 320b and a live video request acquisition unit 321b.
The archive video request acquisition unit 320b acquires an archive video request command from the terminal device 3b. Here, the archive video request command is a command for causing the pet video analysis device 2 to output an archive video. The archive video request command includes a command for outputting a list of archive video and a command for outputting a specific archive video.
When the archive video request acquisition unit 320b acquires an archive video request, the archive video request acquisition unit 320b supplies the archive video request acquisition unit 320b to the archive video management unit 33b.

ライブ動画リクエスト取得部321bは、ライブ動画リクエスト命令を端末装置3bから取得する。ここでライブ動画リクエスト命令とは、ライブ動画をペット動画解析装置2に出力させたり、ライブ動画をペット動画解析装置2に録画させたりするための命令である。   The live video request acquisition unit 321b acquires a live video request command from the terminal device 3b. Here, the live video request command is a command for outputting a live video to the pet video analysis device 2 or causing the pet video analysis device 2 to record a live video.

ライブ動画リクエスト取得部321bは、ライブ動画リクエスト命令を取得すると、ライブ動画リクエスト命令が示す命令の種類に応じて、ライブ動画出力命令とライブ動画録画命令とのいずれかを、アーカイブ動画管理部33bに供給する。
ライブ動画リクエスト取得部321bは、ライブ動画リクエスト命令がライブ動画をペット動画解析装置2に出力させることを示す場合、ライブ動画出力命令をアーカイブ動画管理部33bに供給する。
一方、ライブ動画リクエスト取得部321bは、ライブ動画リクエスト命令がライブ動画をペット動画解析装置2に録画させることを示す場合、ライブ動画録画命令をアーカイブ動画管理部33bに供給する。
When the live video request acquisition unit 321b acquires the live video request command, the live video request command is sent to the archive video management unit 33b according to the type of command indicated by the live video request command. Supply.
The live video request acquisition unit 321b supplies a live video output command to the archive video management unit 33b when the live video request command indicates that the live video is output to the pet video analysis device 2.
On the other hand, the live video request acquisition unit 321b supplies the live video recording command to the archive video management unit 33b when the live video request command indicates that the pet video analysis device 2 records the live video.

アーカイブ動画管理部33bは、フレーム属性記憶部26bが供給するフレーム属性情報FPに基づいて、動画記憶部21aが供給する撮像動画MVから要約前イベント動画PEVを抽出する。アーカイブ動画管理部33bは、抽出した要約前イベント動画PEVを、シーン動画233bとして記憶部23bに記憶させる。   The archive video management unit 33b extracts the pre-summary event video PEV from the captured video MV supplied by the video storage unit 21a based on the frame attribute information FP supplied by the frame attribute storage unit 26b. The archive video management unit 33b stores the extracted pre-summary event video PEV in the storage unit 23b as the scene video 233b.

ここで、要約前イベント動画PEVは、連続ペットフレーム判定部221が判定したペットフレームから構成される。したがって、アーカイブ動画管理部33bは、連続ペットフレーム判定部221が判定したペットフレームから構成されるシーン動画233bを記憶部23bに記憶させる記憶制御部である。   Here, the pre-summary event video PEV is composed of pet frames determined by the continuous pet frame determination unit 221. Therefore, the archive moving image management unit 33b is a storage control unit that causes the storage unit 23b to store the scene moving image 233b composed of pet frames determined by the continuous pet frame determination unit 221.

また、アーカイブ動画管理部33bは、ライブ動画リクエスト取得部321bから供給されるライブ動画出力命令に応じて、撮像動画MVを、ライブ動画出力部294bに供給する。
また、アーカイブ動画管理部33bは、ライブ動画リクエスト取得部321bから供給されるライブ動画録画命令に応じて、動画記憶部21が供給する撮像動画MVを、記憶部23に録画動画234bとして記憶させる。
In addition, the archive video management unit 33b supplies the captured video MV to the live video output unit 294b in response to the live video output command supplied from the live video request acquisition unit 321b.
Further, the archive video management unit 33b stores the captured video MV supplied by the video storage unit 21 in the storage unit 23 as the recorded video 234b in response to the live video recording command supplied from the live video request acquisition unit 321b.

また、アーカイブ動画管理部33bは、アーカイブ動画リクエスト取得部320bから供給されるアーカイブ動画リクエスト命令に応じて、リクエスト取得部32bに記憶されるアーカイブ動画を、アーカイブ動画出力部293bに出力する。   Further, the archive video management unit 33b outputs the archive video stored in the request acquisition unit 32b to the archive video output unit 293b in response to the archive video request command supplied from the archive video request acquisition unit 320b.

ここでアーカイブ動画管理部33bは、アーカイブ動画リクエスト命令がアーカイブ動画のリストを出力させるための命令を含む場合、複数のアーカイブ動画(シーン動画233b、及び録画動画234b)にそれぞれ対応するサムネイルSNを、アーカイブ動画のリストとして、ライブ動画出力部294bに供給する。   Here, when the archive video request command includes a command for outputting a list of archive videos, the archive video management unit 33b displays thumbnails SN respectively corresponding to a plurality of archive videos (scene video 233b and recorded video 234b). The archive moving image list is supplied to the live moving image output unit 294b.

一方、アーカイブ動画管理部33bは、アーカイブ動画リクエスト命令が特定のアーカイブ動画(シーン動画233b、及び録画動画234b)を出力させるための命令を含む場合、アーカイブ動画リクエスト命令が示す特定のアーカイブ動画(シーン動画233b、及び録画動画234b)を、ライブ動画出力部294bに供給する。   On the other hand, the archive video management unit 33b, when the archive video request command includes a command for outputting a specific archive video (scene video 233b and recorded video 234b), a specific archive video (scene The video 233b and the recorded video 234b) are supplied to the live video output unit 294b.

出力部29bは、要約動画出力部290と、サムネイル出力部291とに加えて、アーカイブ動画出力部293bと、ライブ動画出力部294bとを備える。   The output unit 29b includes an archive video output unit 293b and a live video output unit 294b in addition to the summary video output unit 290 and the thumbnail output unit 291.

アーカイブ動画出力部293bは、アーカイブ動画管理部33bが供給するアーカイブ動画のリストを端末装置3bに出力する。アーカイブ動画のリストは、端末装置3bにおいて、図10に示したようなアルバム画面G2を用いて表示されてよい。   The archive video output unit 293b outputs a list of archive videos supplied by the archive video management unit 33b to the terminal device 3b. The list of archive videos may be displayed on the terminal device 3b using the album screen G2 as shown in FIG.

また、アーカイブ動画出力部293bは、アーカイブ動画管理部33bが供給するアーカイブ動画(シーン動画233b、または録画動画234b)を端末装置3bに出力する。したがって、アーカイブ動画出力部293bは、記憶制御部であるアーカイブ動画管理部33bが記憶部23bに記憶させたシーン動画233bを出力する。   The archive video output unit 293b outputs the archive video (scene video 233b or recorded video 234b) supplied by the archive video management unit 33b to the terminal device 3b. Therefore, the archive video output unit 293b outputs the scene video 233b stored in the storage unit 23b by the archive video management unit 33b, which is a storage control unit.

ライブ動画出力部294bは、アーカイブ動画管理部33bがライブ動画として供給する撮像動画MVを、端末装置3bに出力する。ここでライブ動画出力部294bは、例えば、ストリーミングを用いて撮像動画MVを端末装置3に出力する。   The live video output unit 294b outputs the captured video MV supplied as a live video by the archive video management unit 33b to the terminal device 3b. Here, the live moving image output unit 294b outputs the captured moving image MV to the terminal device 3, for example, using streaming.

以上に説明したように、本実施形態に係るペット動画解析装置2bは、記憶制御部(アーカイブ動画管理部33b)と、シーン動画出力部(アーカイブ動画出力部293b)とを備える。   As described above, the pet video analysis device 2b according to the present embodiment includes the storage control unit (archive video management unit 33b) and the scene video output unit (archive video output unit 293b).

この構成により、本実施形態に係るペット動画解析装置2bでは、要約動画Vとして短縮される前の動画をリクエストに応じて端末装置3bに出力できるため、しっかりと確認したいシーン動画を、短縮される前の長さにおいて確認することができる。   With this configuration, the pet video analyzing apparatus 2b according to the present embodiment can output the video before being shortened as the summary video V to the terminal device 3b in response to the request, so that the scene video to be confirmed firmly can be shortened. It can be confirmed in the previous length.

なお、上述した実施形態におけるペット動画解析装置2、2a、2bの一部、例えば、動画取得部20、動画記憶部21、21a、21b、シーン判定部22、記憶部23、23a、23b、イベント解析部24、サムネイル選択部25、フレーム属性記憶部26、26a、26b、要約動画生成部27、サムネイル生成部28、出力部29、29a、29b、ペット判定部30a、評価取得部31a、リクエスト取得部32b、及びアーカイブ動画管理部33bをコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、ペット動画解析装置2、2a、2bに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態におけるペット動画解析装置2、2a、2bの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。ペット動画解析装置2、2a、2bの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
Note that some of the pet video analysis devices 2, 2a, and 2b in the above-described embodiment, for example, the video acquisition unit 20, the video storage units 21, 21a, and 21b, the scene determination unit 22, the storage units 23, 23a, and 23b, and the event Analysis unit 24, thumbnail selection unit 25, frame attribute storage units 26, 26a, 26b, summary video generation unit 27, thumbnail generation unit 28, output units 29, 29a, 29b, pet determination unit 30a, evaluation acquisition unit 31a, request acquisition The unit 32b and the archive moving image management unit 33b may be realized by a computer. In that case, the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed. Here, the “computer system” is a computer system built in the pet moving image analysis apparatuses 2, 2 a, 2 b and includes hardware such as an OS and peripheral devices. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In this case, a volatile memory inside a computer system that serves as a server or a client may be included that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
Moreover, you may implement | achieve part or all of the pet animation analysis apparatuses 2, 2a, 2b in embodiment mentioned above as integrated circuits, such as LSI (Large Scale Integration). Each functional block of the pet moving image analysis apparatuses 2, 2a, and 2b may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to

S…ペット見守りシステム、1…撮像装置、2、2a、2b…ペット動画解析装置、3、3a、3b…端末装置、20…動画取得部、21、21a、21b…動画記憶部、22…シーン判定部、220…ペットフレーム抽出部、221…連続ペットフレーム判定部、23、23a、23b…記憶部、24…イベント解析部、240…イベント判定部、241…イベント計数部、242…活動量計測部、25…サムネイル選択部、26…フレーム属性記憶部、27…要約動画生成部、270…イベント動画生成部、271…サマリ動画生成部、28…サムネイル生成部、29、29a、29b…出力部、290…要約動画出力部290、291…サムネイル出力部、292a…ペット判定結果通知部、293b…アーカイブ動画出力部、294b…ライブ動画出力部、30a…ペット判定部、31a…評価取得部、32b…リクエスト取得部、320b…アーカイブ動画リクエスト取得部、321b…ライブ動画リクエスト取得部、30a…ペット判定部、31a…評価取得部、232a…ペット情報、292a…ペット判定結果通知部、33b…アーカイブ動画管理部、293b…アーカイブ動画出力部、294b…ライブ動画出力部、V…要約動画、EV…イベント動画、SV…サマリ動画   DESCRIPTION OF SYMBOLS S ... Pet watching system, 1 ... Imaging device, 2, 2a, 2b ... Pet animation analysis device, 3, 3a, 3b ... Terminal device, 20 ... Movie acquisition part, 21, 21a, 21b ... Movie storage part, 22 ... Scene Judgment unit, 220 ... pet frame extraction unit, 221 ... continuous pet frame judgment unit, 23, 23a, 23b ... storage unit, 24 ... event analysis unit, 240 ... event judgment unit, 241 ... event counting unit, 242 ... activity amount measurement 25: Thumbnail selection unit, 26 ... Frame attribute storage unit, 27 ... Summary video generation unit, 270 ... Event video generation unit, 271 ... Summary video generation unit, 28 ... Thumbnail generation unit, 29, 29a, 29b ... Output unit 290 ... summary video output unit 290, 291 ... thumbnail output unit, 292a ... pet determination result notification unit, 293b ... archive video output unit, 294 ... Live video output unit, 30a ... Pet determination unit, 31a ... Evaluation acquisition unit, 32b ... Request acquisition unit, 320b ... Archive video request acquisition unit, 321b ... Live video request acquisition unit, 30a ... Pet determination unit, 31a ... Evaluation acquisition Part, 232a ... pet information, 292a ... pet judgment result notification part, 33b ... archive video management part, 293b ... archive video output part, 294b ... live video output part, V ... summary video, EV ... event video, SV ... summary video

Claims (13)

ペットが撮像された動画を取得する動画取得部と、
前記動画取得部が取得した前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出部と、
前記ペットフレーム抽出部が抽出した前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記動画取得部が取得した前記動画に基づいて生成する要約動画生成部と、
前記要約動画生成部が生成した前記要約動画を出力する要約動画出力部と、
を備えるペット動画解析装置。
A video acquisition unit for acquiring a video in which a pet is imaged;
A pet frame extraction unit that extracts a pet frame, which is a frame in which a pet is imaged, from a plurality of frames constituting the video acquired by the video acquisition unit;
The video acquisition unit acquires a summary video that is a video in which the number of pet frames extracted by the pet frame extraction unit is larger than the number of non-pet frames that are frames excluding the pet frame among the plurality of frames. A summary video generation unit that generates the video based on the video,
A summary video output unit that outputs the summary video generated by the summary video generation unit;
A pet video analysis device comprising:
前記ペットフレーム抽出部が抽出した前記ペットフレームのなかから、前記動画取得部が取得した前記動画において連続する前記ペットフレームを判定する連続ペットフレーム判定部をさらに備え、
前記要約動画生成部は、前記連続ペットフレーム判定部が判定した前記ペットフレームから構成されるシーン動画に含まれる連続する前記ペットフレームの数を所定の数以下にした動画に基づいて前記要約動画を生成する
請求項1に記載のペット動画解析装置。
A continuous pet frame determination unit that determines the pet frames that are continuous in the moving image acquired by the moving image acquisition unit from the pet frames extracted by the pet frame extraction unit,
The summary video generation unit generates the summary video based on a video in which the number of continuous pet frames included in a scene video composed of the pet frames determined by the continuous pet frame determination unit is less than or equal to a predetermined number. The pet video analysis device according to claim 1 to generate.
前記シーン動画に含まれる連続する前記ペットフレームのなかからサムネイル画像に対応する前記ペットフレームを選択するサムネイル選択部
をさらに備える請求項2に記載のペット動画解析装置。
The pet moving image analysis apparatus according to claim 2, further comprising: a thumbnail selection unit that selects the pet frame corresponding to a thumbnail image from among the continuous pet frames included in the scene moving image.
前記シーン動画を記憶部に記憶させる記憶制御部と、
前記記憶制御部が前記記憶部に記憶させた前記シーン動画を出力するシーン動画出力部と
をさらに備える請求項2または請求項3に記載のペット動画解析装置。
A storage control unit for storing the scene video in a storage unit;
The pet video analysis device according to claim 2 or 3, further comprising: a scene video output unit that outputs the scene video stored in the storage unit by the storage control unit.
前記連続ペットフレーム判定部が判定した前記ペットフレームが、予め登録されている前記ペットの行動を示すイベントが撮像されている前記フレームであるイベントフレームであるか否かを判定するイベント判定部
をさらに備える請求項2から請求項4のいずれか一項に記載のペット動画解析装置。
An event determination unit that determines whether the pet frame determined by the continuous pet frame determination unit is an event frame that is a frame in which an event indicating the behavior of the pet registered in advance is captured; The pet animation analysis device according to any one of claims 2 to 4 provided.
前記イベント判定部が前記イベントフレームであると判定した前記ペットフレームと、前記連続ペットフレーム判定部が判定した連続する前記ペットフレームとに基づいて前記イベントの発生回数を数えるイベント計数部をさらに備え、
要約動画出力部は、前記要約動画生成部が生成した前記要約動画に加えて、前記イベント計数部が計数した前記発生回数をさらに出力する
請求項5に記載のペット動画解析装置。
An event counting unit that counts the number of occurrences of the event based on the pet frame determined by the event determination unit as the event frame and the continuous pet frame determined by the continuous pet frame determination unit;
The pet video analysis device according to claim 5, wherein the summary video output unit further outputs the number of occurrences counted by the event counting unit in addition to the summary video generated by the summary video generation unit.
前記要約動画生成部は、前記動画取得部が取得した前記動画に複数の種類の前記イベントが含まれる場合、前記イベント判定部が判定した前記イベントフレームに基づいて、前記複数の種類の前記イベントが前記要約動画に含まれるように前記要約動画を生成する
請求項5または請求項6に記載のペット動画解析装置。
The summary video generation unit, when the video acquired by the video acquisition unit includes a plurality of types of events, based on the event frame determined by the event determination unit, the events of the plurality of types The pet video analysis device according to claim 5 or 6, wherein the summary video is generated so as to be included in the summary video.
前記イベント判定部は、前記ペットフレーム抽出部が抽出した前記ペットフレームに撮像されている場所によって前記イベントの種類を判定する
請求項5から請求項7のいずれか一項に記載のペット動画解析装置。
The pet video analysis device according to any one of claims 5 to 7, wherein the event determination unit determines the type of the event based on a location imaged in the pet frame extracted by the pet frame extraction unit. .
前記ペットフレーム抽出部が抽出した前記ペットフレームに撮像された前記ペットが特定のペットであるか否かを判定するペット判定部と、
前記ペット判定部が判定した結果を通知するペット判定結果通知部と
をさらに備える請求項1から請求項8のいずれか一項に記載のペット動画解析装置。
A pet determination unit that determines whether or not the pet imaged in the pet frame extracted by the pet frame extraction unit is a specific pet;
The pet video analysis device according to any one of claims 1 to 8, further comprising: a pet determination result notification unit that notifies a result determined by the pet determination unit.
前記ペット判定部が判定した結果が通知されたことに応じて得られる評価を取得する評価取得部をさらに備え、
前記ペット判定部は、前記評価取得部が取得した前記評価に基づいて前記動画取得部が取得した前記動画に撮像された前記ペットが特定のペットであるか否かを判定する
請求項9に記載のペット動画解析装置。
An evaluation acquisition unit that acquires an evaluation obtained in response to the notification of the determination result of the pet determination unit;
The said pet determination part determines whether the said pet imaged by the said moving image acquired by the said moving image acquisition part is a specific pet based on the said evaluation acquired by the said evaluation acquisition part. Pet video analysis device.
請求項1から請求項10のいずれか一項に記載のペット動画解析装置と、
前記動画を撮像し、前記ペット動画解析装置に供給する撮影装置と、
前記ペット動画解析装置が出力する前記要約動画を取得する端末装置と
を備えるペット動画解析システム。
The pet video analysis device according to any one of claims 1 to 10,
An imaging device that captures the video and supplies the pet video analysis device;
A pet video analysis system comprising: a terminal device that acquires the summary video output by the pet video analysis device.
ペットが撮像された動画を取得する動画取得手順と、
前記動画取得手順において取得された前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出手順と、
前記ペットフレーム抽出手順において抽出された前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記動画取得手順において取得された前記動画に基づいて生成する要約動画生成手順と、
前記要約動画生成手順において生成された前記要約動画を出力する要約動画出力手順と、
を有するペット動画解析方法。
A video acquisition procedure for acquiring a video of a pet image;
A pet frame extraction procedure for extracting a pet frame, which is a frame in which a pet is imaged, from a plurality of frames constituting the video acquired in the video acquisition procedure;
In the video acquisition procedure, a summary video is a video in which the number of pet frames extracted in the pet frame extraction procedure is larger than the number of non-pet frames that are frames excluding the pet frame among the plurality of frames. A summary video generation procedure to be generated based on the acquired video;
A summary video output procedure for outputting the summary video generated in the summary video generation procedure;
A pet video analysis method comprising:
コンピュータに
ペットが撮像された動画を取得する動画取得ステップと、
前記動画取得ステップにおいて取得された前記動画を構成する複数のフレームから、ペットが撮像されているフレームであるペットフレームを抽出するペットフレーム抽出ステップと、
前記ペットフレーム抽出ステップにおいて抽出された前記ペットフレームの数が、前記複数のフレームのうち前記ペットフレームを除くフレームである非ペットフレームの数よりも多い動画である要約動画を、前記動画取得ステップにおいて取得された前記動画に基づいて生成する要約動画生成ステップと、
前記要約動画生成ステップにおいて生成された前記要約動画を出力する要約動画出力ステップと、
を実行させるためのプログラム。
A video acquisition step of acquiring a video in which a pet is imaged on a computer;
A pet frame extracting step of extracting a pet frame that is a frame in which a pet is imaged from a plurality of frames constituting the moving image acquired in the moving image acquiring step;
In the moving image acquisition step, a summary moving image is a moving image in which the number of pet frames extracted in the pet frame extracting step is larger than the number of non-pet frames that are frames excluding the pet frame among the plurality of frames. A summary video generation step for generating based on the acquired video;
A summary video output step for outputting the summary video generated in the summary video generation step;
A program for running
JP2018059747A 2018-03-27 2018-03-27 Pet video analysis device, pet video analysis system, pet video analysis method, and program Active JP7154024B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018059747A JP7154024B2 (en) 2018-03-27 2018-03-27 Pet video analysis device, pet video analysis system, pet video analysis method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018059747A JP7154024B2 (en) 2018-03-27 2018-03-27 Pet video analysis device, pet video analysis system, pet video analysis method, and program

Publications (2)

Publication Number Publication Date
JP2019170180A true JP2019170180A (en) 2019-10-10
JP7154024B2 JP7154024B2 (en) 2022-10-17

Family

ID=68165902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018059747A Active JP7154024B2 (en) 2018-03-27 2018-03-27 Pet video analysis device, pet video analysis system, pet video analysis method, and program

Country Status (1)

Country Link
JP (1) JP7154024B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102238322B1 (en) * 2019-11-22 2021-04-08 주식회사 엘지유플러스 Apparatus and method for monitering pet
JP2021111903A (en) * 2020-01-14 2021-08-02 パナソニックIpマネジメント株式会社 Digest video reproduction system and digest video reproduction program
JP7069439B1 (en) 2022-01-26 2022-05-17 株式会社トレッタキャッツ Management system, management device and method
JP2022151669A (en) * 2021-03-26 2022-10-07 国立研究開発法人農業・食品産業技術総合研究機構 State estimation system, state estimation method, feeding amount determination system, feeding amount determination method, learned model generation device, and learned model generation method
JP7160417B1 (en) 2022-01-26 2022-10-25 株式会社トレッタキャッツ Management device, method and program
WO2023187865A1 (en) * 2022-03-28 2023-10-05 日本電気株式会社 Information processing device, information processing method, and recording medium
WO2024136514A1 (en) * 2022-12-21 2024-06-27 Cj Olivenetworks Co., Ltd. Artificial intelligence-based method and system for detecting thumbnail and video highlight within video content

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001275509A (en) * 2000-04-04 2001-10-09 Hitachi Building Systems Co Ltd Remote monitoring and control system for pets
JP2004158950A (en) * 2002-11-05 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> Automatic recording video generation system, automatic recording video generation method, automatic recording video generation program, and recording medium for automatic recording video generation program
JP2005277981A (en) * 2004-03-26 2005-10-06 Seiko Epson Corp Selecting target images for image processing
WO2007043347A1 (en) * 2005-10-13 2007-04-19 Pioneer Corporation Recorded data reproduction device and program
WO2007077694A1 (en) * 2005-12-28 2007-07-12 Atomsystem Co., Ltd. Muzzle pattern information creating device, muzzle pattern information checking device, muzzle pattern information creating program, and muzzle pattern information creating method
JP2008236729A (en) * 2007-02-19 2008-10-02 Victor Co Of Japan Ltd Method and apparatus for generating digest
JP2009182400A (en) * 2008-01-29 2009-08-13 Sony Corp Image processing apparatus, image processing method, program for image processing method, and recording medium recording program for image processing method
JP2012160880A (en) * 2011-01-31 2012-08-23 Nagoya Univ Digest video generation device
JP2013126175A (en) * 2011-12-15 2013-06-24 Nikon Corp Image recorder, image generating apparatus, control program of image recorder and control program of image generating apparatus
JP2016197437A (en) * 2016-07-07 2016-11-24 カシオ計算機株式会社 Watch device, watch method, and program
JP2017035016A (en) * 2015-08-07 2017-02-16 アプリックスIpホールディングス株式会社 Notification system of use of article for pet, article for pet, and notification method of use of article for pet

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001275509A (en) * 2000-04-04 2001-10-09 Hitachi Building Systems Co Ltd Remote monitoring and control system for pets
JP2004158950A (en) * 2002-11-05 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> Automatic recording video generation system, automatic recording video generation method, automatic recording video generation program, and recording medium for automatic recording video generation program
JP2005277981A (en) * 2004-03-26 2005-10-06 Seiko Epson Corp Selecting target images for image processing
WO2007043347A1 (en) * 2005-10-13 2007-04-19 Pioneer Corporation Recorded data reproduction device and program
WO2007077694A1 (en) * 2005-12-28 2007-07-12 Atomsystem Co., Ltd. Muzzle pattern information creating device, muzzle pattern information checking device, muzzle pattern information creating program, and muzzle pattern information creating method
JP2008236729A (en) * 2007-02-19 2008-10-02 Victor Co Of Japan Ltd Method and apparatus for generating digest
JP2009182400A (en) * 2008-01-29 2009-08-13 Sony Corp Image processing apparatus, image processing method, program for image processing method, and recording medium recording program for image processing method
JP2012160880A (en) * 2011-01-31 2012-08-23 Nagoya Univ Digest video generation device
JP2013126175A (en) * 2011-12-15 2013-06-24 Nikon Corp Image recorder, image generating apparatus, control program of image recorder and control program of image generating apparatus
JP2017035016A (en) * 2015-08-07 2017-02-16 アプリックスIpホールディングス株式会社 Notification system of use of article for pet, article for pet, and notification method of use of article for pet
JP2016197437A (en) * 2016-07-07 2016-11-24 カシオ計算機株式会社 Watch device, watch method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHEN, Y.-C. ET AL.: "Locality Constrained Sparse Representation for Cat Recognition", LECTURE NOTES IN COMPUTER SCIENCE, vol. 9517, JPN6021051945, 2016, pages 140 - 151, ISSN: 0004811504 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102238322B1 (en) * 2019-11-22 2021-04-08 주식회사 엘지유플러스 Apparatus and method for monitering pet
JP2021111903A (en) * 2020-01-14 2021-08-02 パナソニックIpマネジメント株式会社 Digest video reproduction system and digest video reproduction program
JP7345111B2 (en) 2020-01-14 2023-09-15 パナソニックIpマネジメント株式会社 Digest video playback system and digest video playback program
JP7677633B2 (en) 2021-03-26 2025-05-15 国立研究開発法人農業・食品産業技術総合研究機構 State estimation system, state estimation method, feed amount determination system, feed amount determination method, trained model generation device, and trained model generation method
JP2022151669A (en) * 2021-03-26 2022-10-07 国立研究開発法人農業・食品産業技術総合研究機構 State estimation system, state estimation method, feeding amount determination system, feeding amount determination method, learned model generation device, and learned model generation method
JP2023108979A (en) * 2022-01-26 2023-08-07 株式会社トレッタキャッツ Management system, management device, and method
JP2023108980A (en) * 2022-01-26 2023-08-07 株式会社トレッタキャッツ Management device, method and program
JP7160417B1 (en) 2022-01-26 2022-10-25 株式会社トレッタキャッツ Management device, method and program
JP7069439B1 (en) 2022-01-26 2022-05-17 株式会社トレッタキャッツ Management system, management device and method
WO2023187865A1 (en) * 2022-03-28 2023-10-05 日本電気株式会社 Information processing device, information processing method, and recording medium
JPWO2023187865A1 (en) * 2022-03-28 2023-10-05
JP7775991B2 (en) 2022-03-28 2025-11-26 日本電気株式会社 Information processing device, information processing method, and program
WO2024136514A1 (en) * 2022-12-21 2024-06-27 Cj Olivenetworks Co., Ltd. Artificial intelligence-based method and system for detecting thumbnail and video highlight within video content

Also Published As

Publication number Publication date
JP7154024B2 (en) 2022-10-17

Similar Documents

Publication Publication Date Title
JP2019170180A (en) Pet moving image analyzer, pet moving image analysis system, pet moving image analysis method and program
JP7470203B2 (en) Analysis and selection in aquaculture
JP6636792B2 (en) Stimulus presentation system, stimulus presentation method, computer, and control method
TWI232674B (en) Method and system for accessing a collection of images in a database
JP5424852B2 (en) Video information processing method and apparatus
CN101489116A (en) Video surveillance system and method using ip-based networks
CN115068339B (en) Infant feeding system
US20110169982A1 (en) Image management apparatus, method of controlling the same, and storage medium storing program therefor
JP5113721B2 (en) Media information attention measuring device, media information attention measuring method, media information attention measuring program, and recording medium recording the program
JPWO2012063560A1 (en) Image processing system, image processing method, and storage medium storing image processing program
JP5083559B2 (en) Image composition apparatus, image composition method, and program
JP2018029290A (en) Video playback device, video playback system, and video playback method
JPWO2019198701A1 (en) Analyzers, analytical methods, programs and aquatic organism monitoring systems
JP6522695B2 (en) Life log utilization system, method and program
CN113348451A (en) Information processing system, information processing method, and information processing apparatus
KR102241705B1 (en) Apparatus and method for detecting action based on multi-modal
US20220192561A1 (en) Information processing system, information processing method, and information processing apparatus
JP6566799B2 (en) Providing device, providing method, and program
CN111258410B (en) A human-computer interaction device
US20050251741A1 (en) Methods and apparatus for capturing images
CN114245174B (en) Video preview method and related equipment
CN105656764B (en) User behavior information evaluation method, device and system, server
CN115686320A (en) Application analysis report generation method and device, computer equipment and storage medium
KR20240048076A (en) Method and device for offering annotation of voice input
CN118741241B (en) Age detection-based shooting style recommendation and video clip generation method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221004

R150 Certificate of patent or registration of utility model

Ref document number: 7154024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250