[go: up one dir, main page]

JP2019024482A - Information processing system, information processing device, and program - Google Patents

Information processing system, information processing device, and program Download PDF

Info

Publication number
JP2019024482A
JP2019024482A JP2018028328A JP2018028328A JP2019024482A JP 2019024482 A JP2019024482 A JP 2019024482A JP 2018028328 A JP2018028328 A JP 2018028328A JP 2018028328 A JP2018028328 A JP 2018028328A JP 2019024482 A JP2019024482 A JP 2019024482A
Authority
JP
Japan
Prior art keywords
information
cow
behavior
moving objects
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018028328A
Other languages
Japanese (ja)
Other versions
JP7002066B2 (en
Inventor
龍男 根本
Tatsuo Nemoto
龍男 根本
量平 長谷川
Ryohei Hasegawa
量平 長谷川
貴至 岩田
Takashi Iwata
貴至 岩田
謙一 高崎
Kenichi Takasaki
謙一 高崎
芳明 岡部
Yoshiaki Okabe
芳明 岡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Computer Associated Lab Inc
Original Assignee
Computer Associated Lab Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Computer Associated Lab Inc filed Critical Computer Associated Lab Inc
Publication of JP2019024482A publication Critical patent/JP2019024482A/en
Application granted granted Critical
Publication of JP7002066B2 publication Critical patent/JP7002066B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】監視の対象となる家畜などへの負担をなくし、監視の対象からより多くの行動情報を読み取ることを可能にする。【解決手段】本発明にかかる情報処理システムは、監視領域の空間情報を出力する空間センサと、空間センサから出力された空間情報から監視対象の複数の動く物体の物体情報を検出する第1の検出手段と、第1の検出手段が検出した物体情報において複数の動く物体の内の互いに接触している動く物体の配置情報を検出する第2の検出手段と、物体情報および配置情報から複数の動く物体の行動情報を生成する生成手段と、行動情報から動く物体の行動が異常行動であるかを判定する判定手段と、動く物体の行動が異常行動であると判定された場合に異常を通知する通知手段と、を有することを特徴とする。【選択図】図2PROBLEM TO BE SOLVED: To eliminate the burden on livestock and the like to be monitored, and to make it possible to read more behavior information from the monitoring target. SOLUTION: The information processing system according to the present invention has a spatial sensor that outputs spatial information in a monitoring area, and a first method that detects object information of a plurality of moving objects to be monitored from the spatial information output from the spatial sensor. A plurality of detection means, a second detection means for detecting the arrangement information of moving objects in contact with each other among a plurality of moving objects in the object information detected by the first detection means, and a plurality of object information and arrangement information. A generation means for generating behavior information of a moving object, a judgment means for determining whether the behavior of a moving object is an abnormal behavior from the behavior information, and a notification of an abnormality when the behavior of a moving object is determined to be an abnormal behavior. It is characterized by having a notification means for. [Selection diagram] Fig. 2

Description

本発明は、情報処理システム、情報処理装置、およびプログラムに関する。   The present invention relates to an information processing system, an information processing apparatus, and a program.

従来、畜産農家で飼育されている家畜は出荷前までに起立不可状態や衰弱などにより数パーセントが死廃になる。畜産農家では人手不足などもあり厩舎内の家畜全てを24時間付きっ切りで見守ることはできず、家畜に行動の変化があってもそれを早期発見することが難しい。このため、家畜が厩舎内で起立不可状態のまま窒息により死廃に至ったり、病気などで衰弱が進行し死廃に至ったりする場合がある。経験の浅い新規就農者においては、熟練者と違い、家畜の行動の変化に気が付くことさえできないので、家畜の死廃率がより一層高まる。   Conventionally, several percent of livestock raised by livestock farmers are dead due to inability to stand up or weakness before shipment. Livestock farmers are not able to watch all the livestock in the stables 24 hours a day due to labor shortages, and it is difficult to detect early changes even if livestock changes in behavior. For this reason, there are cases where livestock is killed by suffocation while being unable to stand in the stable, or is weakened due to illness or the like, leading to death. Inexperienced new farmers, unlike skilled workers, cannot even notice changes in livestock behavior, thus further increasing the rate of livestock death.

家畜の健康状態の異常を通報する通報システムを開示したものがある。この通報システムは、牛に歩数を検知するセンサを装着させ、各センサから歩数信号を受信して歩数から健康状態の異常を発見する。健康情報に異常があると、通報システムの利用者にその旨を報知する(特許文献1参照)。この他、牛の体内に体温を計測するセンサを埋め込み、そのセンサからの温度信号を受信して健康状態の異常を発見するものもある(特許文献2参照)。   There is a disclosure system for reporting abnormalities in the health status of livestock. This reporting system causes a cow to be equipped with sensors that detect the number of steps, receives a step count signal from each sensor, and finds abnormal health from the number of steps. If there is an abnormality in the health information, this is notified to the user of the reporting system (see Patent Document 1). In addition, there is a sensor in which a body temperature sensor is embedded in the body of a cow, and a temperature signal from the sensor is received to detect a health condition abnormality (see Patent Document 2).

国際公開第2013/145329号International Publication No. 2013/145329 特開2007−296042号公報JP 2007-296042 A

しかしながら、家畜にセンサを装着して家畜の異常を検出するこれまでの仕組みは、家畜への負担が大きく、家畜にストレスを与えかねない。そのため、装着するセンサの種類や数は限定的で、家畜から検出することのできる情報は特定の異常を検出するものに限られてしまうという問題がある。   However, the conventional mechanism for detecting abnormalities in livestock by attaching sensors to livestock places a heavy burden on livestock and may give stress to livestock. For this reason, the types and number of sensors to be mounted are limited, and there is a problem that information that can be detected from livestock is limited to those that detect a specific abnormality.

本発明は、上記に鑑みてなされたものであって、監視の対象となる家畜などへの負担をなくし、監視の対象からより多くの行動情報を読み取ることを可能にする情報処理システム、情報処理装置、およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and is an information processing system and an information processing system that eliminates the burden on livestock to be monitored and allows more action information to be read from the monitoring target. An object is to provide a device and a program.

上述した課題を解決し、目的を達成するために、本発明にかかる情報処理システムは、監視領域の空間情報を出力する空間センサと、空間センサから出力された空間情報から監視対象の複数の動く物体の物体情報を検出する第1の検出手段と、第1の検出手段が検出した物体情報において複数の動く物体の内の互いに接触している動く物体の配置情報を検出する第2の検出手段と、物体情報および配置情報から複数の動く物体の行動情報を生成する生成手段と、行動情報から動く物体の行動が異常行動であるかを判定する判定手段と、動く物体の行動が異常行動であると判定された場合に異常を通知する通知手段と、を有することを特徴とする。   In order to solve the above-described problems and achieve the object, an information processing system according to the present invention includes a spatial sensor that outputs spatial information of a monitoring area, and a plurality of objects to be monitored from the spatial information output from the spatial sensor. First detection means for detecting object information of an object, and second detection means for detecting arrangement information of moving objects in contact with each other among the plurality of moving objects in the object information detected by the first detection means Generating means for generating behavior information of a plurality of moving objects from the object information and the arrangement information, determining means for determining whether the behavior of the moving object is abnormal behavior from the behavior information, and the behavior of the moving object is abnormal behavior And a notification means for notifying abnormality when it is determined that there is an error.

本発明は、監視の対象の負担をなくし、監視の対象からより多くの行動情報を読み取ることが可能になるという効果を奏する。   The present invention has an effect of eliminating the burden on the monitoring target and reading more action information from the monitoring target.

図1は、本発明にかかる情報処理システムの実施例について説明する図である。FIG. 1 is a diagram for explaining an embodiment of an information processing system according to the present invention. 図2は、牛房に設けた監視カメラを含む情報処理システムのシステム構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a system configuration of an information processing system including a monitoring camera provided in a cow chamber. 図3は、監視カメラユニットのハードウエア構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a hardware configuration of the monitoring camera unit. 図4は、分析サーバ装置のハードウエア構成の一例を示す図である。FIG. 4 is a diagram illustrating an example of a hardware configuration of the analysis server device. 図5は、監視サービスに係る情報テーブルのテーブル構成の一例を示す図である。FIG. 5 is a diagram illustrating an example of a table configuration of an information table related to the monitoring service. 図6は、異常行動の判定項目を育成ステージ別に設定した設定情報の一例を示す図である。FIG. 6 is a diagram illustrating an example of setting information in which determination items for abnormal behavior are set for each breeding stage. 図7は、分析サーバ装置の機能の説明図である。FIG. 7 is an explanatory diagram of functions of the analysis server device. 図8は、牛の輪郭を検出する方法の説明図である。FIG. 8 is an explanatory diagram of a method for detecting the contour of a cow. 図9は、補助部の一例を示す図である。FIG. 9 is a diagram illustrating an example of the auxiliary unit. 図10は、探索部と特定部とによる補助処理の説明図である。FIG. 10 is an explanatory diagram of auxiliary processing by the search unit and the specifying unit. 図11は、牛の輪郭を図形に近似する場合の説明図である。FIG. 11 is an explanatory diagram for approximating the contour of a cow to a figure. 図12は、牛の輪郭画像の面積変化の一例を示す図である。FIG. 12 is a diagram illustrating an example of an area change of a cow contour image. 図13は、追跡処理のフローの一例を示す図である。FIG. 13 is a diagram illustrating an example of the flow of the tracking process. 図14は、アラーム基本データの生成処理のフローの一例を示す図である。FIG. 14 is a diagram illustrating an example of a flow of alarm basic data generation processing. 図15は、閾値の決定処理のフローの一例を示す図である。FIG. 15 is a diagram illustrating an example of a flow of threshold determination processing. 図16は、牛の異常行動判定処理のフローの一例を示す図である。FIG. 16 is a diagram illustrating an example of a flow of cow abnormal behavior determination processing.

以下に、本発明にかかる情報処理システム、情報処理装置、およびプログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。例えば、以下に示す実施例では、乳用牛や肉用牛である家畜の牛を監視対象として説明するが、「動く物体」であれば、その他の家畜や、家畜以外の動物や生物などに適用してもよい。また、以下に示す実施例では、監視領域内の各被写体の深度を示す深度画像を「空間情報」として出力する空間センサを一例として示すが、「空間情報」は深度画像に限らず、監視領域内の動く被写体の領域や輪郭などを特定することができるものであれば、その他のものでもよい。また、以下に示す実施例では、輪郭情報を「物体情報」の一例と示すが、「物体情報」は動く物体の領域そのものなどでもよい。また、以下に示す実施例では、個体輪郭情報を「配置情報」の一例と示すが、「配置情報」は物体情報において個体の領域を識別できる情報であれば、その他の情報でもよい。   Embodiments of an information processing system, an information processing apparatus, and a program according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments. For example, in the following embodiment, cattle of livestock that are dairy cattle or beef cattle are described as monitoring targets. However, if it is a “moving object”, it can be used for other livestock, animals other than livestock, or living things. You may apply. In the embodiment described below, a spatial sensor that outputs a depth image indicating the depth of each subject in the monitoring area as “spatial information” is shown as an example. However, “spatial information” is not limited to a depth image, and the monitoring area Any other object can be used as long as it can identify the area or contour of the moving subject in the camera. In the embodiment described below, the contour information is shown as an example of “object information”, but the “object information” may be a moving object region itself. In the embodiment described below, the individual contour information is shown as an example of “placement information”, but the “placement information” may be other information as long as it is information that can identify the region of the individual in the object information.

図1は、本発明にかかる情報処理システムの実施例について説明する図である。図1には、牛舎内に設けられている牛房90と、牛房90内の牛91の行動を監視する監視カメラ(「空間センサ」の一例)10aとを示している。牛房90は柵90aにより仕切られている一つの牛房を表す。牛房90内には同時期に出生した牛91を収容している。図1には一例として2頭の牛91を示しているが、牛91の数は1頭でも複数頭であってもよい。水飲み場やエサ場などは、図示を省略しているが、柵90aの内側にあっても、柵90aの外側にあってもよい。   FIG. 1 is a diagram for explaining an embodiment of an information processing system according to the present invention. FIG. 1 shows a cowhouse 90 provided in the barn and a monitoring camera (an example of a “space sensor”) 10 a that monitors the behavior of the cow 91 in the cowhouse 90. A cow bull 90 represents one cow bunch partitioned by a fence 90a. A cow 91 born at the same time is accommodated in the cow bull 90. Although FIG. 1 shows two cows 91 as an example, the number of cows 91 may be one or more. Although a drinking fountain and a feeding area are not shown, they may be inside the fence 90a or outside the fence 90a.

図1に示すように、牛房90の上方に監視カメラ10aを設置し、監視カメラ10aにより牛房90の育成エリア90bを撮影する。育成エリア90bが本実施例の監視領域である。監視カメラ10aを設置する高さHは、育成エリア90bが撮影の範囲に収まるように調節する。本実施例では幅W×奥行Lが5.0m×4.1mの広さの育成エリア90bに対して、監視カメラ10aを4.2m程度の高さに設置する。   As shown in FIG. 1, the monitoring camera 10a is installed above the cow 90, and the growing area 90b of the cow 90 is photographed by the monitoring camera 10a. The growing area 90b is the monitoring area of this embodiment. The height H at which the monitoring camera 10a is installed is adjusted so that the growing area 90b is within the shooting range. In the present embodiment, the monitoring camera 10a is installed at a height of about 4.2 m with respect to the growing area 90b having a width W × depth L of 5.0 m × 4.1 m.

監視カメラ10aにより育成エリア90bがセンシングされ、監視カメラ10aから所定のフレームレートでフレーム画像が出力される。牛91の行動は、その連続するフレーム画像(後述する「連続フレーム画像」)に基づき、監視サービスの提供会社のサーバ装置がデータ解析する。そして、このデータ解析において牛91の異常行動を示す結果が得られると、当該サーバ装置は、その牛91の畜産農家へ異常信号を通知する。   The growing area 90b is sensed by the monitoring camera 10a, and a frame image is output from the monitoring camera 10a at a predetermined frame rate. The behavior of the cow 91 is analyzed by the server device of the monitoring service provider based on the continuous frame images (“continuous frame images” described later). And if the result which shows the abnormal action of the cow 91 is obtained in this data analysis, the said server apparatus will notify an abnormal signal to the livestock farmer of the cow 91. FIG.

図2は、牛房90に設けた監視カメラ10aを含む情報処理システムのシステム構成の一例を示す図である。図2に示すように、情報処理システム1は、複数の監視カメラユニット10や、クラウド20や、分析サーバ装置30や、管理PC40や、利用者端末50などを、ネットワーク60を介して接続する構成を有する。   FIG. 2 is a diagram illustrating an example of a system configuration of an information processing system including the monitoring camera 10 a provided in the cow chamber 90. As shown in FIG. 2, the information processing system 1 is configured to connect a plurality of surveillance camera units 10, a cloud 20, an analysis server device 30, a management PC 40, a user terminal 50, and the like via a network 60. Have

監視カメラユニット10は、監視サービスを利用する各畜産農家の牛舎の牛房90に設置する。図2には、牛房90を一つのみ示しているが、監視カメラユニット10は、牛舎内の各牛房90に個別に設置する。なお、幾つかの牛房90に対して1台の監視カメラユニット10を設置するようにしてもよい。   The surveillance camera unit 10 is installed in a cowshed 90 of a cowshed of each livestock farmer who uses the surveillance service. Although only one cow 90 is shown in FIG. 2, the monitoring camera unit 10 is individually installed in each cow 90 in the barn. One surveillance camera unit 10 may be installed for several cows 90.

監視カメラユニット10は、監視カメラ10aとコントロールPC10bとを有する画像送信ユニットである。監視カメラ10aは、各牛房90の上方に撮影方向を下に向けて設置し、各牛房90の育成エリア90bを撮影する。監視カメラ10aのコントロールPC10bは、監視カメラ10aが出力する連続フレーム画像をWiFiなどによりアクセスポイントへとばし、そのアクセスポイントからネットワーク60を通じてクラウド20に送信させる。   The surveillance camera unit 10 is an image transmission unit having a surveillance camera 10a and a control PC 10b. The surveillance camera 10 a is installed above each cow 90 with the shooting direction facing downward, and takes images of the breeding area 90 b of each cow 90. The control PC 10b of the monitoring camera 10a skips the continuous frame image output from the monitoring camera 10a to the access point using WiFi or the like, and transmits the image to the cloud 20 through the network 60 from the access point.

クラウド20は、ストレージネットワークを構築し、データストレージサービスを提供する。クラウド20は、ユーザの保管データ(本実施例では連続フレーム画像)をストレージネットワーク上のストレージ21に蓄積して保管する。   The cloud 20 constructs a storage network and provides a data storage service. The cloud 20 accumulates and stores user storage data (in this embodiment, continuous frame images) in the storage 21 on the storage network.

分析サーバ装置30は、クラウド20から連続フレーム画像(コピー)を取得し、連続フレーム画像を対象に牛91の行動について分析処理を行う。分析サーバ装置30は、分析処理により牛91の異常行動を検知すると、その牛91の畜産農家の利用者端末50に牛91の異常行動についてお知らせする信号(異常信号70)を通知する。異常信号70の通知は、アラームや電子メールなどにより行う。   The analysis server device 30 acquires a continuous frame image (copy) from the cloud 20 and performs an analysis process on the behavior of the cow 91 with respect to the continuous frame image. When the analysis server device 30 detects the abnormal behavior of the cow 91 by the analysis process, the analysis server device 30 notifies the user terminal 50 of the livestock farmer of the cow 91 of the signal (abnormal signal 70) for notifying the abnormal behavior of the cow 91. The notification of the abnormality signal 70 is performed by an alarm or an e-mail.

管理PC40は、各畜産農家が管理棟80などに備えるパーソナルコンピュータである。管理PC40は、対応の設定プログラムにより、監視カメラユニット10の設定などを行う。   The management PC 40 is a personal computer provided in each management farm 80 by each livestock farmer. The management PC 40 performs setting of the monitoring camera unit 10 by a corresponding setting program.

利用者端末50は、各畜産農家が所持する携帯電話機や、スマートフォンや、タブレット端末などである。利用者端末50は、分析サーバ装置30からアラームなどによる異常信号70を受信し、報知音や、LED(Light Emitting Diode)の発光や、メッセージ画面の表示などにより、牛91に異常行動があることを利用者端末50の所持者に知らせる。また、利用者端末50は、牛91の異常行動の内容を知らせる電子メールを異常信号70として取得してもよい。   The user terminal 50 is a mobile phone, a smartphone, a tablet terminal or the like owned by each livestock farmer. The user terminal 50 receives an abnormal signal 70 due to an alarm or the like from the analysis server device 30, and the cow 91 has an abnormal behavior due to a notification sound, light emission of an LED (Light Emitting Diode), display of a message screen, or the like. To the owner of the user terminal 50. Further, the user terminal 50 may acquire an e-mail notifying the content of the abnormal behavior of the cow 91 as the abnormal signal 70.

更に、利用者端末50は、監視サービスを提供する会社が指定したURL(Uniform Resource Locator)にアクセスし、利用者の牛房90の監視カメラユニット10から出力された連続フレーム画像を再生して表示することも可能である。再生する連続フレーム画像は、監視カメラユニット10のカラーカメラ11c(図3参照)から出力されたカラー連続フレーム画像である。   Further, the user terminal 50 accesses a URL (Uniform Resource Locator) specified by the company that provides the monitoring service, and reproduces and displays the continuous frame image output from the monitoring camera unit 10 of the user's cow 90. It is also possible to do. The continuous frame image to be reproduced is a color continuous frame image output from the color camera 11c (see FIG. 3) of the monitoring camera unit 10.

ネットワーク60は、無線LAN(Local Area Network)ネットワークや公衆網やインターネットなどである。コントロールPC10bがWiFi接続するアクセスポイントはネットワーク60の無線LANネットワークに構成される。   The network 60 is a wireless local area network (LAN) network, a public network, the Internet, or the like. The access point to which the control PC 10b is connected via WiFi is configured in the wireless LAN network of the network 60.

図3は、監視カメラユニット10のハードウエア構成の一例を示す図である。監視カメラユニット10の監視カメラ10aは、赤外線プロジェクタ11aや、赤外線カメラ11bや、カラーカメラ11cなどを有する。   FIG. 3 is a diagram illustrating an example of a hardware configuration of the monitoring camera unit 10. The monitoring camera 10a of the monitoring camera unit 10 includes an infrared projector 11a, an infrared camera 11b, a color camera 11c, and the like.

赤外線プロジェクタ11aは牛房90全体に赤外線を照射する。赤外線カメラ11bは牛房90内の各被写体までの深度を表す画像(「深度画像」と呼ぶ)を所定のフレームレートで連続的に出力する。具体的に赤外線カメラ11bは牛房90内の各被写体から反射される赤外光を基に所定のフレームレートで画素単位に深度を算出し、それぞれの深度を所定の画素値に対応付けた画像を連続的に出力する。例えば、赤外光を照射してから各被写体からの反射光を受光するまでの時間などにより、各被写体までの距離を深度として算出する。なお、本実施例では、深度を示す連続フレーム画像のことを、カラー連続フレーム画像と区別して単に「連続フレーム画像」と呼ぶ。   The infrared projector 11 a irradiates the entire cow 90 with infrared rays. The infrared camera 11b continuously outputs an image (referred to as a “depth image”) representing the depth to each subject in the cow bull 90 at a predetermined frame rate. Specifically, the infrared camera 11b calculates a depth for each pixel at a predetermined frame rate based on infrared light reflected from each subject in the cow bull 90, and associates each depth with a predetermined pixel value. Is output continuously. For example, the distance to each subject is calculated as the depth based on the time from when the infrared light is irradiated until the reflected light from each subject is received. In the present embodiment, the continuous frame image indicating the depth is simply referred to as “continuous frame image” in distinction from the color continuous frame image.

カラーカメラ11cは、牛房90のカラー画像を所定のフレームレートで連続的に出力する。具体的にカラーカメラ11cは牛房90内の各被写体から照明光や太陽光により反射する光に基づき所定のフレームレートでカラー画像に変換し、それを連続的に出力する。なお、本実施例では、カラーのものについては「カラー」であることを明示する。   The color camera 11c continuously outputs a color image of the cow 90 at a predetermined frame rate. Specifically, the color camera 11c converts each subject in the cow 90 into a color image at a predetermined frame rate based on illumination light or light reflected by sunlight, and continuously outputs it. In the present embodiment, it is clearly indicated that the color is “color”.

監視カメラ10aは、USB(Universal Serial Bus)ケーブル10cを介してコントロールPC10bと接続される。監視カメラ10aは、コントロールPC10bから指示された設定で連続フレーム画像とカラー連続フレーム画像とを出力する。   The monitoring camera 10a is connected to the control PC 10b via a USB (Universal Serial Bus) cable 10c. The monitoring camera 10a outputs a continuous frame image and a color continuous frame image with settings instructed from the control PC 10b.

コントロールPC10bは、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などのコンピュータ構成の制御部12を有する。制御部12にはUSBコントローラ13やWiFiの通信コントローラ14などが接続されている。   The control PC 10b includes a control unit 12 having a computer configuration such as a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The controller 12 is connected to a USB controller 13, a WiFi communication controller 14, and the like.

制御部12では、CPUがROMのプログラムを実行し、例えば次のような処理を行う。制御部12は、USBコントローラ13の制御により、監視カメラ10aから連続フレーム画像とカラー連続フレーム画像とを取得し、取得した連続フレーム画像とカラー連続フレーム画像とを、通信コントローラ14の制御によりクラウド20へ送信する。   In the control unit 12, the CPU executes a ROM program and performs, for example, the following processing. The control unit 12 acquires a continuous frame image and a color continuous frame image from the monitoring camera 10 a under the control of the USB controller 13, and the acquired continuous frame image and the color continuous frame image are controlled by the communication controller 14 in the cloud 20. Send to.

USBコントローラ13は、USBケーブル10cを介して監視カメラ10aのターゲット(赤外線カメラ11bや、カラーカメラ11cなど)とUSB通信を行う。主にUSBコントローラ13は、監視カメラ10aから連続フレーム画像とカラー連続フレーム画像とを取得する。   The USB controller 13 performs USB communication with a target (infrared camera 11b, color camera 11c, etc.) of the monitoring camera 10a via the USB cable 10c. Mainly, the USB controller 13 acquires a continuous frame image and a color continuous frame image from the monitoring camera 10a.

通信コントローラ14は、アクセスポイント60aにWiFi接続し、クラウド20に連続フレーム画像とカラー連続フレーム画像とを随時送信する。   The communication controller 14 is connected to the access point 60a via WiFi, and transmits a continuous frame image and a color continuous frame image to the cloud 20 as needed.

図4は、分析サーバ装置30のハードウエア構成の一例を示す図である。図4に示す分析サーバ装置30は、CPU31、ROM32、RAM33、HDD(Hard Disk Drive)34、通信ボード35などがバス36を介して接続されたものである。   FIG. 4 is a diagram illustrating an example of a hardware configuration of the analysis server device 30. The analysis server device 30 shown in FIG. 4 has a CPU 31, a ROM 32, a RAM 33, an HDD (Hard Disk Drive) 34, a communication board 35, and the like connected via a bus 36.

CPU31は、プログラムを実行し、演算処理や各部の制御処理を行う。ROM32は、BIOSなどの固定プログラムを記憶する不揮発性メモリである。RAM33は、CPU31がワークエリアとして使用する揮発性メモリである。   The CPU 31 executes a program and performs arithmetic processing and control processing of each unit. The ROM 32 is a non-volatile memory that stores a fixed program such as BIOS. The RAM 33 is a volatile memory that the CPU 31 uses as a work area.

HDD34は、補助記憶装置である。HDD34には、OS(Operating System)などの基本プログラムC1や、監視サービスに係る分析プログラムC2や、情報テーブルTや、設定情報Dなどを格納する。基本プログラムC1には、Web(World Wide Web)サーバやデータベースサーバなどが含まれる。   The HDD 34 is an auxiliary storage device. The HDD 34 stores a basic program C1 such as an OS (Operating System), an analysis program C2 related to a monitoring service, an information table T, setting information D, and the like. The basic program C1 includes a Web (World Wide Web) server, a database server, and the like.

通信ボード35は、例えばイーサネット(登録商標)などの通信を行うための通信ボードである。通信ボード35は、例えばサービス提供会社の社内LANなどに通信ケーブルを介して接続されている。   The communication board 35 is a communication board for performing communication such as Ethernet (registered trademark). The communication board 35 is connected to, for example, an in-house LAN of a service provider via a communication cable.

続いて、監視サービスに係る情報テーブルTのテーブル構成について説明する。
図5は、監視サービスに係る情報テーブルTのテーブル構成の一例を示す図である。図5(a)は、監視サービスを開始する利用者の利用者情報を登録する利用者情報登録テーブルT1である。図5(b)は、監視カメラ10aを設置する牛房90についての情報を登録する牛房情報登録テーブルT2である。図5(c)は、牛房90内の牛91の個体情報を登録する個体情報登録テーブルT3である。図5(d)は、牛91の行動を示す監視データを逐次記録する記録テーブルT4である。図5(e)は、監視データから生成したアラーム基本データを設定するアラーム基本データ設定テーブルT5である。
Next, the table configuration of the information table T related to the monitoring service will be described.
FIG. 5 is a diagram illustrating an example of a table configuration of the information table T related to the monitoring service. FIG. 5A is a user information registration table T1 for registering user information of a user who starts a monitoring service. FIG. 5B shows a cow information registration table T2 for registering information about the cow 90 where the monitoring camera 10a is installed. FIG. 5C shows an individual information registration table T3 for registering individual information of the cow 91 in the cow bull 90. FIG. 5D is a recording table T4 that sequentially records monitoring data indicating the behavior of the cow 91. FIG. 5E is an alarm basic data setting table T5 for setting alarm basic data generated from monitoring data.

図5(a)に示す利用者情報登録テーブルT1は、項目として、利用者の「利用者ID(Identification)」t11や、利用者の「電話番号」t12や、利用者の「電子メールアドレス」t13や、利用者の「画像閲覧用のURL」t14などを有する。ここで、「電話番号」t12や「メールアドレス」t13は、利用者に牛91の異常を知らせるための通知先を示す情報の一例である。「画像閲覧用のURL」t14は、利用者の牛房90の様子を撮影して得たカラー連続フレーム画像の取得先のURLである。   The user information registration table T1 shown in FIG. 5A includes, as items, a “user ID (Identification)” t11 of the user, a “phone number” t12 of the user, and an “e-mail address” of the user. t13, the user's “URL for viewing images” t14, and the like. Here, “telephone number” t12 and “mail address” t13 are examples of information indicating a notification destination for notifying the user of the abnormality of the cow 91. The “image browsing URL” t14 is the URL from which the color continuous frame image obtained by photographing the state of the user's cow bull 90 is acquired.

図5(b)に示す牛房情報登録テーブルT2は、項目として、「利用者ID」t11や、監視対象に設定する牛房90の「牛房ID」t21や、牛房90別の牛91の「出生日」t22などを有する。ここで、「牛房ID」t21には、牛房90に設置された監視カメラユニット10の監視カメラユニットID(コントロールPC10bのMACアドレス等)を登録する。「出生日」t22には、牛房90内の牛91の出生日を登録する。なお、この例では同日に生まれた牛91を同じ牛房90内に収容する場合について示す。出生日が異なる牛91を同じ牛房90内に収容する場合には、出生日を牛房90単位ではなく牛91の個体別に管理できるようにテーブル構成を変形してもよい。   The cow information registration table T2 shown in FIG. 5B includes, as items, “user ID” t11, “cattle ID” t21 of the cow 90 to be set as a monitoring target, and cattle 91 for each cow 90. “Birth date” t22 and the like. Here, the monitoring camera unit ID (such as the MAC address of the control PC 10b) of the monitoring camera unit 10 installed in the cow 90 is registered in the “beef ID” t21. In “birth date” t22, the date of birth of the cow 91 in the cow bull 90 is registered. In this example, the case where the cow 91 born on the same day is housed in the same cow chamber 90 is shown. When cattle 91 having different birth dates are accommodated in the same cow 90, the table configuration may be modified so that the date of birth can be managed for each individual cow 91 instead of 90 units.

図5(c)に示す個体情報登録テーブルT3は、項目として、「牛房ID」t21や、牛房90内の牛91の「個体ID」t31などを有する。ここで、「個体ID」t31には、牛房90別に、牛房90内に収容されている全ての牛91の個体IDを登録する。個体IDは、互いに識別することができれば任意に設定してよい。   The individual information registration table T <b> 3 illustrated in FIG. 5C includes items such as “cow ID” t <b> 21, “individual ID” t <b> 31 of the cow 91 in the cow chamber 90, and the like. Here, in the “individual ID” t31, individual IDs of all cows 91 housed in the cow 90 are registered for each cow 90. Individual IDs may be arbitrarily set as long as they can be distinguished from each other.

図5(d)に示す記録テーブルT4は、項目として、「個体ID」t31や、「期間」t41や、「監視データ」t42や、「接触フラグ」t43などを有する。ここで、「期間」t41には、「監視データ」t42にデータを設定したときの設定日時の情報を設定する。「監視データ」t42と「接触フラグ」t43とには、それぞれ、後述する牛91の監視データと牛91同士の接触を表す接触フラグ(「接触回数情報」の一例)とを設定する。   The record table T4 shown in FIG. 5D includes “individual ID” t31, “period” t41, “monitoring data” t42, “contact flag” t43, and the like as items. Here, in “period” t41, information on the set date and time when data is set in “monitoring data” t42 is set. In the “monitoring data” t42 and the “contact flag” t43, monitoring data of the cow 91 described later and a contact flag (an example of “contact number information”) indicating contact between the cows 91 are set.

図5(e)に示すアラーム基本データ設定テーブルT5には、項目として、「個体ID」t31や、「期間」t51や、「行動情報(アラーム基本データ)」t52などを有する。ここで、「期間」t51には、監視データの設定日時を含む日付と朝、昼、夜の期間を設定する。「行動情報(アラーム基本データ)」t52には、牛91の「歩行距離」t521や、「立位時間」t522や、「座位時間」t523や、他の牛91との「接触回数」t524や、「横臥時間」t525や、その他牛91の行動を表す情報についてのアラーム基本データの設定項目を有する。ここで「アラーム基本データ」は、牛91の行動の中から牛91の異常行動を判定するための基本データである。なお、「行動情報(アラーム基本データ)」t52の各項目は一例であり、その他の項目に適宜変形してもよい。ここで、座位は、膝を下ろして胸を起こした姿勢をいう。横臥は、肢を投げ出して横倒しの姿勢をいう。   The alarm basic data setting table T5 shown in FIG. 5E has “individual ID” t31, “period” t51, “behavior information (alarm basic data)” t52, and the like as items. Here, in the “period” t51, the date including the set date and time of the monitoring data and the morning, noon, and night periods are set. “Behavior information (alarm basic data)” t52 includes “walking distance” t521, “standing time” t522, “sitting time” t523, “number of times of contact” t524 with other cows 91, , “Recumbent time” t525, and other alarm basic data setting items for information representing the behavior of the cow 91. Here, the “alarm basic data” is basic data for determining the abnormal behavior of the cow 91 from the behavior of the cow 91. Each item of “behavior information (alarm basic data)” t52 is an example, and may be appropriately modified to other items. Here, the sitting position refers to a posture in which the knees are lowered and the chest is raised. Recumbent is a posture in which the limbs are thrown out and laid down.

図6は、異常行動の判定項目を育成ステージ別に設定した設定情報Dの一例を示す図である。育成ステージは「ステージ情報」の一例であり、設定情報Dは「対応情報」の一例である。図6に示す設定情報Dには、育成ステージ情報d1として、第1ステージd11、第2ステージd12、第3ステージd13、第4ステージd14、第5ステージd15・・・を設けている。ここでは一例として、第1ステージd11を「初乳」、第2ステージd12を「哺乳」、第3ステージd13を「肥育、育成」、第4ステージd14を「発情」、第5ステージd15を「妊娠」、・・・などに設定したものを示している。育成ステージの各設定は、牛91の出生からの日数により分けたものであるため、牛91の出生からの日数や期間を示す情報を有する。例えば「初乳」には、出生から7日までの期間を示す情報が設定されている。   FIG. 6 is a diagram illustrating an example of the setting information D in which items for determining abnormal behavior are set for each breeding stage. The training stage is an example of “stage information”, and the setting information D is an example of “corresponding information”. The setting information D shown in FIG. 6 includes a first stage d11, a second stage d12, a third stage d13, a fourth stage d14, a fifth stage d15,. Here, as an example, the first stage d11 is “colostrum”, the second stage d12 is “feeding”, the third stage d13 is “fattening”, the fourth stage d14 is “estrus”, and the fifth stage d15 is “ It shows what is set to “Pregnancy”,. Each setting of the breeding stage is divided by the number of days from the birth of the cow 91, and thus has information indicating the number of days and the period from the birth of the cow 91. For example, in “colostrum”, information indicating a period from birth to the seventh day is set.

また、設定情報Dには、育成ステージ情報d1に異常行動についての判定項目情報d2を対応付けている。一例として判定項目に「仲間外れ」d21や、「発情」d22や、「病気の兆候」d23や、「起立不可状態」d24などを設け、育成ステージに応じて、判定の対象にする項目にフラグ「1」を立てている。ここでは一例として、第1ステージd11と第2ステージd12については「仲間外れ」d21や「病気の兆候」d23にフラグを立て、第3ステージd13については「病気の兆候」d23と「起立不可状態」d24にフラグを立て、第4ステージd14については「発情」d22にフラグを立て、第5ステージd15については「起立不可状態」d24にフラグを立てたものを示している。   Further, in the setting information D, determination item information d2 regarding abnormal behavior is associated with the breeding stage information d1. As an example, “disappear” d21, “estrus” d22, “disease sign” d23, “not standing” d24, and the like are provided as determination items, and a flag “ 1 ”. Here, as an example, the first stage d11 and the second stage d12 are flagged as “disappear” d21 and “disease sign” d23, and the third stage d13 is “disease sign” d23 and “not standing”. A flag is set for d24, a flag is set for "estrus" d22 for the fourth stage d14, and a flag is set for "not standing up" d24 for the fifth stage d15.

なお、ここに一例として示す項目について追加や削除を適宜行ってよい。また、各育成ステージ(第1ステージd11、第2ステージd12、・・・)における判定の対象にする項目の変更も適宜行ってよい。   In addition, you may add or delete suitably about the item shown as an example here. Moreover, you may change suitably the item made into the determination object in each cultivation stage (1st stage d11, 2nd stage d12, ...).

また、設定情報Dの育成ステージを適宜変更してもよい。例えば、育成ステージを更に細かく分割してもよい。また、牛91の種別(肉用牛、乳用牛)により育成ステージを分け、それぞれに対応する個別の育成ステージを設定してもよい。   Further, the breeding stage of the setting information D may be changed as appropriate. For example, the growing stage may be further divided. Further, the breeding stages may be divided according to the type of cow 91 (beef cattle, milk cow), and individual breeding stages corresponding to each may be set.

図7〜図11は、分析サーバ装置30の機能の説明図である。分析サーバ装置30は、CPU31がHDD34の基本プログラムC1や分析プログラムC2などをRAM33に適宜読み出して実行することにより当該機能を実現する。なお、当該機能は、一つのCPUコアに割り当てて実現してもよいし、複数のCPUコアに分散して割り当てて実現してもよい。また、分析サーバ装置30を複数台設けて、それぞれのCPUに当該機能を振り分けて実現してもよい。   7 to 11 are explanatory diagrams of functions of the analysis server device 30. The analysis server device 30 realizes this function by the CPU 31 appropriately reading and executing the basic program C1 and analysis program C2 of the HDD 34 in the RAM 33. This function may be realized by being assigned to one CPU core or may be realized by being distributed to a plurality of CPU cores. Further, a plurality of analysis server devices 30 may be provided, and the functions may be distributed to each CPU.

以下、図7に示す各種の機能について図8〜図11を適宜参照しながら説明する。なお、各機能間は、プロセス間通信などにより処理の完了等の通知を行うものとする。   Hereinafter, the various functions shown in FIG. 7 will be described with reference to FIGS. In addition, between each function, notification of the completion of a process etc. shall be performed by inter-process communication.

図7には、分析処理にかかる主な機能として、テーブル操作部301と、読出部302と、検出部303と、補助部304と、監視データ生成部305と、対応付け部306と、設定部307と、アラーム基本データ生成部308と、閾値決定部309と、判定部310と、通知部311とを示している。   In FIG. 7, as main functions related to the analysis processing, a table operation unit 301, a reading unit 302, a detection unit 303, an auxiliary unit 304, a monitoring data generation unit 305, an association unit 306, a setting unit 307, an alarm basic data generation unit 308, a threshold value determination unit 309, a determination unit 310, and a notification unit 311 are illustrated.

テーブル操作部301は、情報テーブルTを対象に、データの登録や、更新や、削除や、抽出などを行う。   The table operation unit 301 registers, updates, deletes, and extracts data for the information table T.

読出部302は、監視カメラユニットID別に、当該IDの連続フレーム画像M0から1フレーム分のフレーム画像Mn(n=1,2,・・・)を撮影された順序で読み出す。例えば、連続フレーム画像M0は、クラウド20(図2参照)から撮影された順序で順次送信され、通信ボード35の受信バッファ内に蓄積される。読出部302は、その受信バッファ内の連続フレーム画像M0を対象に1フレーム分のフレーム画像Mnを読み出す。   The reading unit 302 reads frame images Mn (n = 1, 2,...) For one frame from the continuous frame images M0 of the IDs in the order in which the images are captured, for each monitoring camera unit ID. For example, the continuous frame image M0 is sequentially transmitted in the order in which the images were captured from the cloud 20 (see FIG. 2), and stored in the reception buffer of the communication board 35. The reading unit 302 reads the frame image Mn for one frame for the continuous frame image M0 in the reception buffer.

検出部303は、読み出されたフレーム画像Mnから牛の輪郭(輪郭情報P1)を検出する。   The detection unit 303 detects the contour of the cow (contour information P1) from the read frame image Mn.

図8は、牛の輪郭を検出する方法の説明図である。図8(a)には、深度画像であるフレーム画像Mnの説明のためのカラー画像を示している。図8(b)には、深度画像であるフレーム画像Mnを示している。図8(c)には、深度画像であるフレーム画像Mnから検出された輪郭情報P1を示している。   FIG. 8 is an explanatory diagram of a method for detecting the contour of a cow. FIG. 8A shows a color image for explaining the frame image Mn which is a depth image. FIG. 8B shows a frame image Mn that is a depth image. FIG. 8C shows contour information P1 detected from the frame image Mn which is a depth image.

図8(a)には、同じ生育期間の2頭の牛91が図1に示す立位状態にある瞬間のカラー画像を示している。立位状態では、牛91と赤外線カメラ11bとの距離が近づくため深度が浅くなる。図8(a)の画像では牛91が頭部を柵外のエサ箱などに出しているため画像から頭部が切れているが、牛91の頭部などは、胴体よりも低い位置にあるため、胴体より深度が深くなる。その他、地面は、赤外線カメラ11bとの距離が最も遠く、最も深い深度になる。   FIG. 8A shows a color image at the moment when two cows 91 in the same growing period are in the standing state shown in FIG. In the standing position, the depth becomes shallow because the distance between the cow 91 and the infrared camera 11b approaches. In the image of FIG. 8A, the head is cut off from the image because the cow 91 puts his head out of a food box or the like outside the fence, but the head of the cow 91 is at a position lower than the torso. Therefore, the depth becomes deeper than the trunk. In addition, the ground is farthest from the infrared camera 11b and has the deepest depth.

図8(b)に示すように深度画像のフレーム画像Mnは、複数個の一定深度の領域E1、E2、・・・を示す画像になる。一定深度の領域E1、E2、・・・は、それぞれ、その領域内において各画素が同じ深度であることを表している。一定深度の領域E1、E2、・・・は、それぞれ、隣接する領域間では、被写体までの深さが異なり、互いに深度が異なる。なお、フレーム画像Mnに構成される各画素の画素値は、各画素の位置に対応する被写体との距離を表す深度に対応する。ここでは、説明のため、各領域E1、E2、・・・を深度に応じて斜線間隔を変えて表している。斜線間隔が狭いものほど、深度が浅いことを表している。また、一定深度の領域を領域E1〜E8に分けているが、この領域の数は一例であり、深度の分解能力に応じて分割数は異なる。   As shown in FIG. 8B, the frame image Mn of the depth image is an image showing a plurality of constant depth regions E1, E2,. Each of the regions E1, E2,... Having a constant depth represents that each pixel has the same depth in the region. In the regions E1, E2,... Having a certain depth, the depth to the subject is different between adjacent regions, and the depths are different from each other. Note that the pixel value of each pixel configured in the frame image Mn corresponds to the depth representing the distance from the subject corresponding to the position of each pixel. Here, for the sake of explanation, each region E1, E2,... Is represented by changing the hatched interval according to the depth. The narrower the diagonal line interval, the shallower the depth. Moreover, although the area | region of fixed depth is divided | segmented into the area | regions E1-E8, the number of this area | region is an example and the division | segmentation number changes according to the decomposition | disassembly capability of depth.

牛91が座位や横臥の状態にある場合は牛91の深度がより深くなり深度の値が大きくなる。地面は深度が最も深いため白で表している。この他、柵90aや、エサ場や水飲み場などは、連続するフレームに渡って固定の深度で表される。   When the cow 91 is in a sitting or lying state, the depth of the cow 91 becomes deeper and the depth value becomes larger. The ground is white because it is the deepest. In addition, the fence 90a, a food area, a drinking fountain, and the like are represented at a fixed depth over a continuous frame.

検出部303は、フレーム画像Mn内の複数個の一定深度の領域E1、E2、・・・の内から直前のフレーム画像Mn−1と比べて移動するなど変化があった一定深度の領域を牛の領域と特定し、その輪郭を検出する。隣接する一定深度の領域が連動して変化する場合には、その連動する一定深度の領域を含めて牛の領域とする。図8(b)では、領域E1が変化するため、領域E1を牛の領域として特定する。更に、領域E2と、これに隣接する領域E3とが連動して変化するため、領域E2と領域E3とを、別の牛の領域として特定する。   The detection unit 303 selects a region having a certain depth that has changed, such as moving from a plurality of regions E1, E2,... And the contour is detected. When the adjacent constant depth region changes in conjunction, the region including the interlocking constant depth region is used as the cow region. In FIG.8 (b), since the area | region E1 changes, the area | region E1 is specified as a cow area | region. Furthermore, since the region E2 and the region E3 adjacent to the region E2 change in conjunction with each other, the region E2 and the region E3 are specified as regions of different cows.

図8(c)には、特定した2つの牛の領域を矩形枠F1、F2で示している。検出部303は、特定した矩形枠F1、F2内の牛の領域から牛の輪郭f1、f2を輪郭情報P1として検出する。牛の輪郭f1、f2は、他の領域との深度情報の差などから検出する。
なお、牛の領域の特定は、この他の方法であってもよい。例えば、柵90a内には、監視対象の牛以外に、エサ箱や水飲み場などがあるが、これらは固定の位置にある。このため、フレーム画像Mn内のエサ箱や水飲み場などの座標で示される領域を除いた領域を、各牛の領域として特定する。
In FIG. 8C, the two identified cow regions are indicated by rectangular frames F1 and F2. The detection unit 303 detects the cow contours f1 and f2 as the contour information P1 from the cow regions in the specified rectangular frames F1 and F2. The contours f1 and f2 of the cow are detected from a difference in depth information from other regions.
The cow region may be specified by other methods. For example, in the fence 90a, there are food boxes and drinking fountains in addition to the cattle to be monitored, but these are in fixed positions. For this reason, the area | region except the area | region shown by coordinates, such as a food box and a drinking fountain, in the frame image Mn is specified as an area | region of each cow.

補助部304は、検出部303が検出した輪郭(輪郭情報P1)を対象に、接触している場合のそれぞれの牛の輪郭(個体輪郭情報P2)を検出する補助処理を行う。補助処理は、検出部303により検出された牛の輪郭が複数の牛91の接触により一つの輪郭として検出された場合に各牛91のそれぞれの輪郭を検出できるようにする処理のことである。この処理により、連続フレーム画像M0の各フレーム画像Mnに渡り、追跡中の複数の牛91が接触によって一つの輪郭として検出された場合でも、その間の各牛91の個体識別を可能にする。   The auxiliary unit 304 performs an auxiliary process of detecting the contour of each cow (individual contour information P2) when in contact with the contour (contour information P1) detected by the detection unit 303. Auxiliary processing is processing that enables each contour of each cow 91 to be detected when the contour of the cow detected by the detection unit 303 is detected as one contour by contact of the plurality of cows 91. With this process, even when a plurality of cattle 91 being tracked are detected as a single contour by contact over the frame images Mn of the continuous frame image M0, individual identification of each cow 91 during that time is made possible.

図9は、補助部304の一例を示す図である。図9に示すように、補助部304は探索部304aと特定部304bとを有する。探索部304aと特定部304bとによる補助処理について図10を用いて説明する。   FIG. 9 is a diagram illustrating an example of the auxiliary unit 304. As shown in FIG. 9, the auxiliary unit 304 includes a search unit 304a and a specifying unit 304b. The auxiliary processing by the search unit 304a and the specifying unit 304b will be described with reference to FIG.

図10は、探索部304aと特定部304bとによる補助処理の説明図である。図10(a)には、フレーム画像Mnにおいて2頭の牛91が接触している場合の牛の輪郭f3を示している。図10(b)には、図10(a)の牛の輪郭f3に対する補助処理の一例を示している。   FIG. 10 is an explanatory diagram of auxiliary processing by the search unit 304a and the specifying unit 304b. FIG. 10A shows a contour f3 of the cow when two cows 91 are in contact with each other in the frame image Mn. FIG. 10B shows an example of auxiliary processing for the cow outline f3 in FIG.

探索部304aは、検出された牛の輪郭f3上の一点(開始点v0)から輪郭f3上を一方向(例えば走査方向V1)に走査して、開始点v0から順次、輪郭f3上を任意点数だけスキップした点(サーチ点v1、v2、・・・)をサーチし、隣り合うサーチ点を結ぶ線分(スキップ輪郭線g1、g2、・・・)を求める。例えば、開始点v0とサーチ点v1を結ぶ線分としてスキップ輪郭線g1を求める。   The search unit 304a scans the contour f3 from one point (start point v0) on the detected cow contour f3 in one direction (for example, the scanning direction V1), and sequentially counts the arbitrary number on the contour f3 from the start point v0. Only the skipped points (search points v1, v2,...) Are searched, and line segments (skip contour lines g1, g2,...) Connecting adjacent search points are obtained. For example, the skip outline g1 is obtained as a line segment connecting the start point v0 and the search point v1.

特定部304bは、隣接するスキップ輪郭線(例えばスキップ輪郭線g1とスキップ輪郭線g2)のなす角(交差角)が所定の角度以内に急激に変化する特異点を求める。例えば、特定部304bは、開始点v0から走査方向V1に向けて、順次、隣接するスキップ輪郭線の交差角を求め、直前のフレームMn−1において求めた交差角との比較から所定角度以内に急激に変化する点かを判定する。求めた点が、所定角度以内に急激に変化する点に該当しない場合は、走査方向V1における次の隣接するスキップ輪郭線の交差角について判定する。この例では、サーチ点v5が所定角度以内に急激に変化する点として判定されて特異点の一つに特定される。なお、所定角度以内に急激に変化する点に該当するものがないまま開始点v0まで戻った場合は、当該輪郭に特異点はないものと判定し、当該補助処理を終了する。   The specifying unit 304b obtains a singular point where an angle (intersection angle) formed by adjacent skip contour lines (for example, the skip contour line g1 and the skip contour line g2) rapidly changes within a predetermined angle. For example, the specifying unit 304b sequentially obtains the intersection angles of adjacent skip outlines from the start point v0 in the scanning direction V1, and within a predetermined angle from the comparison with the intersection angle obtained in the immediately preceding frame Mn-1. Determine whether the point changes rapidly. When the obtained point does not correspond to a point that changes suddenly within a predetermined angle, the intersection angle of the next adjacent skip outline in the scanning direction V1 is determined. In this example, the search point v5 is determined as a point that changes rapidly within a predetermined angle, and is specified as one of the singular points. If there is no point corresponding to a point that changes rapidly within a predetermined angle and the process returns to the start point v0, it is determined that there is no singular point in the contour, and the auxiliary process is terminated.

走査方向で特異点の一つが特定された場合、その走査方向V1における特異点の特定処理をストップし、開始点v0から、走査方向V1とは逆回りの方向に特異点の特定処理を開始する。逆回りの方向において、他の一つの特異点を特定すると、その方向への特異点の特定処理もストップする。この例では、サーチ点−v18が所定角度以内に急激に変化する点として判定され特異点の他の一つに特定される。   When one of the singular points is specified in the scanning direction, the singular point specifying process in the scanning direction V1 is stopped, and the singular point specifying process is started in the direction opposite to the scanning direction V1 from the start point v0. . When another one singular point is specified in the reverse direction, the singular point specifying process in that direction is also stopped. In this example, the search point -v18 is determined as a point that changes abruptly within a predetermined angle, and is specified as another one of the singular points.

補助部304は、特定部304bが特定した1組の特異点(この例では、サーチ点v5とサーチ点−v18)を線で結んだ境界線により、2頭の牛91の接触により一つで表される輪郭f3を2頭の牛91のそれぞれの輪郭f1、f2に分離し、区別する。個体輪郭情報P2は、輪郭情報P1に含まれる輪郭f3を、補助処理により分離した輪郭f1と輪郭f2に更新した情報である。   The auxiliary unit 304 is brought into contact with two cows 91 by a boundary line connecting a set of singular points (in this example, search point v5 and search point -v18) specified by the specifying unit 304b. The represented contour f3 is separated into the respective contours f1 and f2 of the two cows 91 for distinction. The individual contour information P2 is information obtained by updating the contour f3 included in the contour information P1 to the contour f1 and the contour f2 separated by the auxiliary process.

なお、ここでは一例として、特定部304bが走査方向V1へ走査して特異点を特定し、続いて反対方向へ走査して特異点を特定する例を示したが、一方向のみの走査により1組の特異点を求めてもよい。また、接触の仕方に応じ、1組に限らず、複数組の特異点を求めてもよい。   Here, as an example, the specification unit 304b scans in the scanning direction V1 to identify a singular point, and then scans in the opposite direction to identify a singular point. A set of singularities may be determined. Moreover, according to the method of contact, you may obtain | require not only one set but several sets of singular points.

また、ここでは、一例として、2頭が接触している場合を例にしているが、3頭以上の接触においても、それぞれの境界を特異点の特定により求めて、輪郭を牛91ごとに分離する。   In addition, here, as an example, the case where two heads are in contact is taken as an example, but even in the case of contact with three or more heads, each boundary is obtained by specifying singular points, and the contour is separated for each cow 91 To do.

監視データ生成部305は、各牛91の輪郭(個体輪郭情報P2)から、各牛91の行動を監視する監視データP3を生成する。本実施例では、監視データ生成部305は、監視データP3として牛の輪郭を図形に近似した近似図形(関数データ等)を生成する。具体的に、監視データ生成部305は、各牛の輪郭、補助部304により一つの領域が境界において複数の領域に分けられている場合にはそれぞれの輪郭を上記図形に近似する変換を行う。   The monitoring data generation unit 305 generates monitoring data P3 for monitoring the behavior of each cow 91 from the contour of each cow 91 (individual contour information P2). In this embodiment, the monitoring data generation unit 305 generates an approximate graphic (function data or the like) that approximates the contour of the cow to the graphic as the monitoring data P3. Specifically, when one region is divided into a plurality of regions at the boundary by the contour of each cow and the auxiliary unit 304, the monitoring data generation unit 305 performs conversion to approximate each contour to the above-described figure.

図11は、牛の輪郭を図形に近似する場合の説明図である。図11(a)には、牛の輪郭が輪郭f3(図10(a)参照)で示されるフレーム画像Mnの個体輪郭情報P2を示している。補助部304により輪郭f1、f2に分離した後、監視データ生成部305が、それぞれの輪郭f1、f2を、例えば最小二乗法による楕円近似に変換する。図11(b)には、それぞれの輪郭f1、f2を最小二乗法により楕円に近似して得られる近似楕円の一例を示している。各近似楕円r1、r2は、フレーム画像Mnの2次平面座標系での配置を示す一意の楕円関数のデータとして求められる。   FIG. 11 is an explanatory diagram for approximating the contour of a cow to a figure. FIG. 11A shows the individual contour information P2 of the frame image Mn in which the contour of the cow is indicated by the contour f3 (see FIG. 10A). After separating the contours f1 and f2 by the auxiliary unit 304, the monitoring data generation unit 305 converts the respective contours f1 and f2 into, for example, an ellipse approximation by a least square method. FIG. 11B shows an example of an approximate ellipse obtained by approximating the respective contours f1 and f2 to an ellipse by the least square method. Each approximate ellipse r1, r2 is obtained as data of a unique elliptic function indicating the arrangement of the frame image Mn in the secondary plane coordinate system.

なお、この例のように補助部304により牛91の輪郭が分離された場合は、それぞれの楕円関数のデータに対し、接触を示す接触フラグAを付加する。接触フラグAは、例えば先頭ビットに「1」または「0」を設ける。   When the contour of the cow 91 is separated by the auxiliary unit 304 as in this example, a contact flag A indicating contact is added to each elliptic function data. For the contact flag A, for example, “1” or “0” is provided in the first bit.

対応付け部306は、牛91の個体IDに監視データP3を対応付ける。具体的に、対応付け部306は、監視サービスの開始時などに利用者の牛房90の監視カメラユニットIDと、その牛房90内の牛91の個体IDとをテーブル操作部301により情報テーブルTから取得し、監視カメラユニットIDと個体IDとを対応付けた情報を追跡情報P4として設定する。その後、対応付け部306は、各牛を示す輪郭の数が個体IDの数と一致する場合に、各牛に対応する監視データP3(接触フラグAを含む)を各個体IDの内の一つに初期値として設定する。そして、連続フレーム画像から時系列順に求められる各牛91の監視データP3(接触フラグAを含む)を、随時、その追跡情報P4に設定する。個体IDに対する初期値以降の監視データP3の対応付けについては、例えば、個体IDに対応付けられている直前の監視データP3との差分(中心位置の差分等)が小さいものを優先するなどして行う。これにより、追跡情報P4において、各個体IDに各個体IDの時系列順の監視データP3が対応付けられる。   The association unit 306 associates the monitoring data P3 with the individual ID of the cow 91. Specifically, the associating unit 306 uses the table operation unit 301 to display an information table of the monitoring camera unit ID of the user's cow 90 and the individual ID of the cow 91 in the cow 90 at the start of the monitoring service. Information obtained from T and associated with the surveillance camera unit ID and the individual ID is set as the tracking information P4. Thereafter, when the number of contours indicating each cow matches the number of individual IDs, the associating unit 306 selects monitoring data P3 (including the contact flag A) corresponding to each cow as one of the individual IDs. Set as the initial value. Then, the monitoring data P3 (including the contact flag A) of each cow 91 obtained in chronological order from the continuous frame images is set in the tracking information P4 as needed. As for the association of the monitoring data P3 after the initial value with the individual ID, for example, priority is given to the one having a small difference (center position difference or the like) from the immediately preceding monitoring data P3 associated with the individual ID. Do. Thereby, in the tracking information P4, the monitoring data P3 of each individual ID in time series order is associated with each individual ID.

設定部307は、監視データP3から接触フラグAを分離し、テーブル操作部301により、監視データP3と接触フラグAとを記録テーブルT4に設定する。例えば、設定部307は、追跡情報P4に設定されている監視データP3の設定数をトリガに、或いは所定時間間隔(例えば数秒置き)に、直近の監視データP3と接触フラグAとを除くすべての監視データP3と接触フラグAとを記録テーブルT4に設定する。なお、直近の監視データP3は、この例では、次に求められる監視データP3を何れの個体IDに対応付けるかの判定に用いるために残している。   The setting unit 307 separates the contact flag A from the monitoring data P3, and sets the monitoring data P3 and the contact flag A in the recording table T4 by the table operation unit 301. For example, the setting unit 307 triggers the set number of monitoring data P3 set in the tracking information P4, or at all predetermined time intervals (for example, every few seconds), except for the latest monitoring data P3 and the contact flag A. The monitoring data P3 and the contact flag A are set in the recording table T4. In this example, the latest monitoring data P3 is left for use in determining which individual ID is associated with the next monitoring data P3 to be obtained.

アラーム基本データ生成部308は、記録テーブルT4の監視データP3(接触回数をカウントする場合は接触フラグAも含む)を基に、アラーム基本データとする行動情報を生成する。例えば、アラーム基本データ生成部308は、設定部307による設定後、或いは所定時間置き(例えば数秒や、数分や、数時間置きなど)に、記録テーブルT4から各監視カメラユニットIDの各固体IDの監視データP3と接触フラグAとを、テーブル操作部301により抽出し、各監視カメラユニットIDの各固体IDを単位にその監視データP3と接触フラグAとから牛91の行動情報を生成する。行動情報は、例えば牛91の歩行距離や、立位時間、座位時間、横臥時間、他の牛91との接触回数などである。その他にも牛91の行動を表す情報を適宜設定してよい。   The alarm basic data generation unit 308 generates action information as alarm basic data based on the monitoring data P3 (including the contact flag A when counting the number of times of contact) in the recording table T4. For example, the alarm basic data generation unit 308 sets each individual ID of each monitoring camera unit ID from the recording table T4 after setting by the setting unit 307 or every predetermined time (for example, every several seconds, several minutes, every several hours, etc.). The monitoring data P3 and the contact flag A are extracted by the table operation unit 301, and the behavior information of the cow 91 is generated from the monitoring data P3 and the contact flag A for each individual ID of each monitoring camera unit ID. The behavior information is, for example, the walking distance of the cow 91, the standing time, the sitting time, the lying time, the number of times of contact with other cows 91, and the like. In addition, information representing the behavior of the cow 91 may be set as appropriate.

一般に、牛91は、膝を下ろして胸を起こした姿勢(座位)と、肢を投げ出して横倒しの姿勢(横臥)とを繰り返す動作を行う。この繰り返し動作の際に、牛91は、横臥から座位に戻れなくなる起立不可の状態になることがある。起立不可の状態は、転倒事故によって起こるケースもある。このような起立不可の状態になって横臥状態が続くと、窒息死などによる事故の原因となる。そこで、本実施の形態においては、行動情報として横臥時間を設定している。   In general, the cow 91 repeats a posture in which the knee is lowered and the chest is raised (sitting position), and a posture in which the limb is thrown out and laid down (recumbent). During this repetitive motion, the cow 91 may be unable to stand up from being able to return from the lying position to the sitting position. The state of being unable to stand up may be caused by a fall accident. Such a standing-up state and a recumbent state may cause an accident due to death from suffocation. Therefore, in the present embodiment, lying time is set as behavior information.

各牛の行動情報は例えば所定期間(本例では、朝と昼と夜とする)を単位に次のように生成する。1頭の牛91の立位時間と座位時間については、期間内の当該牛91の時系列順の監視データP3から、立位や座位の状態を判定し、立位や座位の状態になってからの継続時間の累計を求める。立位や座位は、監視データP3である近似図形の面積などにより判定する。例えば、所定の面積よりも大きい場合を立位とし、小さい場合を座位とする。   The behavior information of each cow is generated as follows, for example, in units of a predetermined period (in this example, morning, noon, and night). About the standing time and sitting time of one cow 91, the standing or sitting state is determined from the monitoring data P3 of the cow 91 in time series order within the period, and the standing or sitting state is obtained. Find the total duration from. The standing position and the sitting position are determined based on the area of the approximate figure that is the monitoring data P3. For example, the case where it is larger than a predetermined area is set as the standing position, and the case where it is smaller is set as the sitting position.

また、牛91の接触回数については、その牛91の時系列順の接触フラグAから、接触してから離れるまでを1回として求める。   In addition, as for the number of times of contact of the cow 91, the contact flag A of the cow 91 in chronological order is obtained as one time from contact until leaving.

また、牛91の歩行距離については、牛91の近似図形の座標(近似楕円の中心座標など)の移動軌跡から求める。   Further, the walking distance of the cow 91 is obtained from the movement locus of the coordinates of the approximate figure of the cow 91 (such as the center coordinates of the approximate ellipse).

また、1頭の牛91の横臥時間については、期間内の当該牛91の時系列順の監視データP3から、横臥状態を判定し、その状態になってからの継続時間の累計を求める。横臥状態は、監視データP3である近似図形の縦横の長さの比などにより判定する。例えば、近似楕円の場合、長軸と短軸のそれぞれの長さ(長径と短径)の比から、牛91の横臥状態を判断する。牛91は、上方から見た場合、横臥状態になると、長径と短径との長さの比が大きく変化する。この長さの比の変化から牛91の横臥状態を判断している。   As for the lying time of one cow 91, the lying state is determined from the monitoring data P3 of the corresponding cow 91 in the time series in the period, and the total duration time after that state is obtained. The recumbent state is determined by the ratio of the vertical and horizontal lengths of the approximate figure that is the monitoring data P3. For example, in the case of an approximate ellipse, the lying state of the cow 91 is determined from the ratio of the lengths of the major axis and the minor axis (major axis and minor axis). When the cow 91 is in a lying state when viewed from above, the ratio of the length of the major axis to the minor axis changes greatly. The lying state of the cow 91 is determined from the change in the ratio of the lengths.

また、横臥状態は、監視データP3である近似図形の輪郭面積などにより判定するようにしてもよい。ここで、図12は牛の輪郭画像の面積変化の一例を示す図である。図12において、縦軸は牛の輪郭画像の面積(ピクセル)、横軸は時刻を表している。図12に示すように、座位状態における輪郭面積に比べて横臥状態における輪郭面積の方が大きくなるので、所定の面積よりも大きい場合を横臥とし、小さい場合を座位とする。   The recumbent state may be determined based on the outline area of the approximate figure that is the monitoring data P3. Here, FIG. 12 is a diagram showing an example of a change in the area of the contour image of the cow. In FIG. 12, the vertical axis represents the area (pixel) of the cow contour image, and the horizontal axis represents time. As shown in FIG. 12, the contour area in the recumbent state is larger than the contour area in the sitting state.

その他牛91の行動を表す情報として、例えば水飲みの回数やエサの回数については、各牛91の近似図形上の頭部の座標(近似楕円であれば焦点座標の一つ)と水飲み場やエサ場の座標との距離などから求める。距離が所定の範囲内になり、所定範囲外に外れた場合を1回などとして求める。   As other information representing the behavior of the cow 91, for example, regarding the number of times of drinking and the number of times of feeding, the coordinates of the head on the approximate figure of each cow 91 (one of the focal coordinates if it is an approximate ellipse), the drinking fountain and the feed It is calculated from the distance to the field coordinates. A case where the distance falls within a predetermined range and falls outside the predetermined range is determined as one time.

こうして、アラーム基本データ生成部308は、生成した行動情報をアラーム基本データ設定テーブルT5へ設定する。   Thus, the alarm basic data generation unit 308 sets the generated behavior information in the alarm basic data setting table T5.

閾値決定部309は、牛91の行動を異常行動と見做す閾値を決定する。本例では、1日を朝の期間と昼の期間と夜の期間とに分け、期間ごとに最新の閾値(上限値と下限値)を決定する。また、各牛91について、行動情報の項目ごとに閾値を決定する。閾値は、該当する項目の所定日数分(ここでは直近数日分とする)のアラーム基本データを基に移動平均を行うなどして決定する。決定した閾値は、閾値情報P5に牛91の個体ID別、朝、昼、夜の期間別に設定する。   The threshold determination unit 309 determines a threshold that considers the behavior of the cow 91 as an abnormal behavior. In this example, one day is divided into a morning period, a noon period, and a night period, and the latest threshold value (upper limit value and lower limit value) is determined for each period. For each cow 91, a threshold is determined for each item of behavior information. The threshold value is determined by performing a moving average based on the basic alarm data for a predetermined number of days (here, the latest several days) of the corresponding item. The determined threshold is set in the threshold information P5 for each individual ID of the cow 91, for each morning, noon, and night period.

判定部310は、判定当日などの判定時に含まれる期間の各牛91の行動情報からそれぞれの牛91の異常行動(仲間外れや、発情や、病気の兆候や、起立不可状態など)を判定する。   The determination unit 310 determines the abnormal behavior of each cattle 91 (such as losing a mate, estrus, signs of illness, or standing inability) from the behavior information of each cattle 91 in a period included at the time of determination such as the day of determination.

具体的に、判定部310は、設定情報Dから、牛房情報登録テーブルT2(図5(b)参照)の牛房90別の牛91の「出生日」t22の設定に該当するステージについてのフラグ「1」の判定項目を取得し、更に閾値情報P5から、判定時の期間の閾値(上限値と下限値)を取得する。そして、判定部310は、テーブル操作部301により、アラーム基本データ設定テーブルT5から、各牛房90の個体IDごとに、更に取得した判定項目ごとに、それぞれの閾値を超える個体IDを検索し、閾値を超える個体IDとその判定項目とを抽出する。   Specifically, the determination unit 310 determines from the setting information D the stage corresponding to the setting of the “birth date” t22 of the cow 91 for each cow 90 in the cow information registration table T2 (see FIG. 5B). The determination item of the flag “1” is acquired, and further, threshold values (upper limit value and lower limit value) of the determination period are acquired from the threshold information P5. Then, the determination unit 310 uses the table operation unit 301 to search the alarm basic data setting table T5 for each individual ID of each bovine 90, and for each acquired determination item, an individual ID exceeding the respective threshold, Individual IDs exceeding the threshold and their determination items are extracted.

判定部310は、抽出結果に閾値を超える個体IDが含まれる場合、その牛91に異常行動があると判定する。異常行動の種類は、共に抽出された判定項目などにより判断する。例えば、判定項目が「接触回数」の場合、他の牛91との接触回数が通常よりも多いので、「発情」を示す異常行動と判定される。判定項目が「横臥」の場合、横臥の時間が継続しているため、牛91の「起立不可状態」を示す異常と判定される。なお、判定方法は、これに限らず、適宜変更してもよい。例えば一つの個別IDに対して判定項目が複数抽出された場合、それらを組み合わせて異常行動を判定してもよい。   When the extraction result includes an individual ID that exceeds the threshold, the determination unit 310 determines that the cow 91 has abnormal behavior. The type of abnormal behavior is determined based on the determination items extracted together. For example, when the determination item is “number of times of contact”, since the number of times of contact with other cows 91 is larger than usual, it is determined as an abnormal action indicating “estrus”. When the determination item is “bubo”, since the recumbent time continues, it is determined that the cow 91 is in an “unable to stand” state. The determination method is not limited to this, and may be changed as appropriate. For example, when a plurality of determination items are extracted for one individual ID, the abnormal behavior may be determined by combining them.

通知部311は、判定部310により異常行動であると判定された場合に、利用者情報登録テーブルT1に設定されている該当する畜産農家のメールアドレス等の宛先を取得し、アラームや電子メールなどによりその宛先に異常信号を通知する。   When the determination unit 310 determines that the notification unit 311 is abnormal behavior, the notification unit 311 acquires a destination such as an email address of the corresponding livestock farmer set in the user information registration table T1, and an alarm, an e-mail, or the like To notify the destination of the abnormal signal.

次に、分析サーバ装置30における処理について説明する。分析サーバ装置30は、監視サービスを開始する準備処理として、利用者の端末や管理者の端末などから利用者の登録情報を受け付け、その登録情報を利用者情報登録テーブルT1(図5(a)参照)、牛房情報登録テーブルT2(図5(b)参照)、および個体情報登録テーブルT3(図5(c)参照)へ設定する。設定後、分析サーバ装置30は、利用者の端末や管理者の端末などから監視サービスの開始を示す信号を受け付けるなどして、その利用者の各牛房90の牛91の行動について分析処理を開始する。   Next, processing in the analysis server device 30 will be described. The analysis server device 30 receives user registration information from a user terminal, an administrator terminal, or the like as a preparation process for starting a monitoring service, and stores the registration information in the user information registration table T1 (FIG. 5A). (See FIG. 5B) and the individual information registration table T3 (see FIG. 5C). After the setting, the analysis server device 30 receives a signal indicating the start of the monitoring service from the user's terminal, the administrator's terminal, or the like, and performs an analysis process on the behavior of the cow 91 of each cow 90 of the user. Start.

図13〜図16は、利用者の1台の監視カメラユニット10から出力される連続フレーム画像M0の牛房90内の牛91の行動を分析する分析処理の説明図である。分析処理には、追跡処理や、アラーム基本データの生成処理や、閾値の決定処理や、異常行動判定処理などが含まれる。以下に、各処理の一例を図13〜図16により説明する。   FIGS. 13-16 is explanatory drawing of the analysis process which analyzes the action | operation of the cow 91 in the cow chamber 90 of the continuous frame image M0 output from one monitoring camera unit 10 of a user. The analysis processing includes tracking processing, alarm basic data generation processing, threshold determination processing, abnormal behavior determination processing, and the like. Hereinafter, an example of each process will be described with reference to FIGS.

図13は、追跡処理のフローの一例を示す図である。先ず、読出部302が、牛房情報登録テーブルT2から、監視サービスの開始を受け付けた利用者の牛房90の「牛房ID」t21の値(監視カメラユニットID)をテーブル操作部301により取得する(S1)。   FIG. 13 is a diagram illustrating an example of the flow of the tracking process. First, the reading unit 302 acquires the value (monitoring camera unit ID) of the “cow ID” t21 of the cow 90 of the user who has accepted the start of the monitoring service from the cow information registration table T2 by the table operation unit 301. (S1).

続いて、読出部302は、当該監視カメラユニットIDが送信元の連続フレーム画像M0から撮影された順に1フレーム分のフレーム画像を読出す(S2)。   Subsequently, the reading unit 302 reads frame images for one frame in the order in which the monitoring camera unit ID is captured from the continuous frame image M0 of the transmission source (S2).

続いて、検出部303が、読み出されたフレームの数が2つ以上かを判定する(S3)。読み出されたフレームの数が一つの場合(S3:No判定)、ステップS2に戻り、読出部302が、撮影された順序が次のフレーム画像を読み出す。   Subsequently, the detection unit 303 determines whether the number of read frames is two or more (S3). When the number of read frames is one (S3: No determination), the process returns to step S2, and the reading unit 302 reads the next frame image in the order of shooting.

フレームの数が2以上の場合(S3:Yes判定)、続いて、検出部303が、後に読み出された方のフレーム画像(フレーム画像M2)を対象に牛の輪郭を検出する(S4)。具体的に、検出部303は、フレーム画像M2内の深度の異なる各領域から直前のフレーム画像(フレーム画像M1)と比べて変化があった領域を牛の領域と特定し、その特定した領域の輪郭を検出する。   When the number of frames is two or more (S3: Yes determination), the detection unit 303 detects the contour of the cow with respect to the frame image (frame image M2) read later (S4). Specifically, the detection unit 303 identifies a region that has changed from each region having a different depth in the frame image M2 as compared to the immediately preceding frame image (frame image M1) as a cow region, and Detect contours.

続いて、補助部304が、検出された各輪郭を対象に、牛91の個別の輪郭を検出する補助処理を行う(S5)。具体的に、補助部304は、輪郭上に設けたスキップ輪郭線の交差角から2つの特異点を求め、2つの特異点が求まった場合に、当該2つの点を繋ぐ線を境界に2頭の牛91の個別の輪郭を検出する。   Subsequently, the auxiliary unit 304 performs an auxiliary process for detecting individual contours of the cow 91 for each detected contour (S5). Specifically, the auxiliary unit 304 obtains two singular points from the intersection angle of the skip contour line provided on the contour, and when two singular points are obtained, two heads with the line connecting the two points as a boundary. The individual contours of the cattle 91 are detected.

続いて、監視データ生成部305が、検出された各牛の個別の輪郭から、各牛の行動を示す監視データP3を生成する(S6)。本実施例では監視データP3を近似図形として生成し、近似図形の中心位置や縦横比などにより各牛91の行動を監視できるようにする。   Subsequently, the monitoring data generation unit 305 generates monitoring data P3 indicating the behavior of each cow from the detected individual contours of each cow (S6). In the present embodiment, the monitoring data P3 is generated as an approximate figure, and the behavior of each cow 91 can be monitored based on the center position and aspect ratio of the approximate figure.

続いて、対応付け部306が、個体情報登録テーブルT3から当該「牛房ID」t21の値(監視カメラユニットID)に対応付けられている「個体ID」t31の値をテーブル操作部301により取得し、取得した監視カメラユニットIDと個体IDとを対応付けた追跡情報P4をRAM33に設定する(S7)。   Subsequently, the associating unit 306 obtains the value of “individual ID” t31 associated with the value (monitoring camera unit ID) of the “cow ID” t21 from the individual information registration table T3 by the table operation unit 301. Then, the tracking information P4 in which the acquired surveillance camera unit ID and the individual ID are associated is set in the RAM 33 (S7).

続いて、対応付け部306は、追跡情報P4に設定した個体IDの数と、監視データの数とが一致するかを判定する(S8)。数が一致しない場合(S8:No判定)、ステップS2から、撮影された順序が次のフレーム画像を対象に残りの牛91の輪郭を検出して監視データを生成する。なお、既に検出済みの牛91の監視データについては、残りの牛91の監視データが生成されるまで、その間の各フレーム画像を対象に検出部303と、補助部304と、監視データ生成部305とが同様に処理を行い、対応付け部306が最新の監視データに更新して管理する。   Subsequently, the associating unit 306 determines whether the number of individual IDs set in the tracking information P4 matches the number of monitoring data (S8). When the numbers do not match (S8: No determination), from step S2, the contour of the remaining cow 91 is detected for the next frame image in the order of shooting, and monitoring data is generated. In addition, about the monitoring data of the already detected cow 91, until the monitoring data of the remaining cow 91 are produced | generated, the detection part 303, the auxiliary | assistant part 304, and the monitoring data production | generation part 305 are targeted for each frame image in the meantime. Perform the same processing, and the associating unit 306 updates and manages the latest monitoring data.

個体IDの数と監視データの数とが一致すると(S8:Yes判定)、設定部307が、追跡情報P4に対し、各個体IDに各牛91の監視データ(この場合、初期値となる)を割り当てて設定する(S9)。この場合、各個体IDに対し各牛91の監視データを任意に割り当てる。この他、各牛91に該当する個体IDを割り当てるようにしてもよい。各牛91に該当する個体IDを割り当てる場合は、例えば、カラー画像から画像解析により各牛の個体IDを抽出する。個体IDは、各牛91に監視カメラによる読み取りが可能な位置且つ解析可能な大きさで刻印などにより設けられている個体識別番号等を利用する。そして、各牛91の監視データが示す深度画像内の座標とカラー画像内の各個体IDの座標とから、座標が一致する個体IDと監視データとを対応付ける。カラー画像を使用しない場合には、例えば各牛91に取り付けられた個体ID別のICタグを、所定位置に固定した読取装置で読み取るなどして、その受信強度などから各ICタグの距離や配置などを特定し、その特定した情報に基づいて個体IDと監視データとを対応付ける。或いは、個体IDを任意に割り当てておき、後に、利用者や管理者が個体IDの対応付けを書き換えるなどしてもよい。ここに示す、各牛91に該当する個体IDを割り当てる方法は一例であり、その他の方法を用いてもよい。   When the number of individual IDs and the number of monitoring data match (S8: Yes determination), the setting unit 307 monitors the monitoring data of each cow 91 for each individual ID with respect to the tracking information P4 (in this case, the initial value). Is assigned and set (S9). In this case, monitoring data of each cow 91 is arbitrarily assigned to each individual ID. In addition, an individual ID corresponding to each cow 91 may be assigned. When assigning the individual ID corresponding to each cow 91, for example, the individual ID of each cow is extracted from the color image by image analysis. As the individual ID, an individual identification number or the like provided on each cow 91 by a stamp or the like in a position that can be read by the monitoring camera and in a size that can be analyzed is used. Then, from the coordinates in the depth image indicated by the monitoring data of each cow 91 and the coordinates of each individual ID in the color image, the individual ID and the monitoring data having the same coordinates are associated with each other. When a color image is not used, for example, an IC tag for each individual ID attached to each cow 91 is read by a reading device fixed at a predetermined position, and the distance and arrangement of each IC tag are determined from the received intensity. Are identified, and the individual ID and the monitoring data are associated with each other based on the identified information. Alternatively, the individual ID may be arbitrarily assigned, and the user or administrator may later rewrite the association of the individual ID. The method of assigning the individual ID corresponding to each cow 91 shown here is an example, and other methods may be used.

以上の初期値の設定処理後、各種機能は、次の処理を行う。先ず、読出部302が続く1フレームを読み出し(S10)、検出部303が、そのフレーム画像Mnを対象に牛の輪郭を検出する(S11)。検出部303は、直前のフレーム画像Mn−1と比べることにより牛の輪郭を検出する。   After the above initial value setting processing, the various functions perform the following processing. First, one frame followed by the reading unit 302 is read (S10), and the detection unit 303 detects the contour of the cow with respect to the frame image Mn (S11). The detection unit 303 detects the contour of the cow by comparing it with the immediately preceding frame image Mn-1.

続いて、補助部304が、各牛の輪郭を対象に、牛91の個別の輪郭を検出する補助処理を行う(S12)。この処理は、ステップS5の処理と同様である。   Subsequently, the auxiliary unit 304 performs an auxiliary process for detecting the individual contour of the cow 91 with respect to the contour of each cow (S12). This process is the same as the process of step S5.

続いて、監視データ生成部305が、検出された各牛91の輪郭から、各牛91の行動を示す監視データを生成する(S13)。この処理は、ステップS6の処理と同様である。   Subsequently, the monitoring data generation unit 305 generates monitoring data indicating the behavior of each cow 91 from the detected contour of each cow 91 (S13). This process is the same as the process of step S6.

続いて、対応付け部306が、各牛91の監視データを追跡情報P4の各個体IDに時系列順に設定する(S14)。   Subsequently, the associating unit 306 sets the monitoring data of each cow 91 to each individual ID of the tracking information P4 in chronological order (S14).

続いて、対応付け部306が、追跡情報P4に対応付けた監視データが所定数に達したかを判定する(S15)。   Subsequently, the associating unit 306 determines whether the monitoring data associated with the tracking information P4 has reached a predetermined number (S15).

所定数に達していない場合(S15:No判定)、ステップS10から、続く1フレームに対して処理が行われる。   If the predetermined number has not been reached (S15: No determination), the process is performed on the subsequent one frame from step S10.

所定数に達した場合(S15:Yes判定)、設定部307が、追跡情報P4の時系列順に並ぶ監視データをテーブル操作部301により記録テーブルT4に設定する(S16)。その後、ステップS10から、続く1フレームに対して処理が行われる。   When the predetermined number is reached (S15: Yes determination), the setting unit 307 sets the monitoring data arranged in the time series of the tracking information P4 in the recording table T4 by the table operation unit 301 (S16). Thereafter, the processing is performed on the subsequent one frame from step S10.

図14は、アラーム基本データの生成処理のフローの一例を示す図である。この処理は、所定のタイミングで開始される。例えば、設定部307がテーブル操作部301により監視データを記録テーブルT4に設定する回数が所定回数に達した場合などに開始される。なお、この処理は、各監視カメラユニットIDの個別ID単位の行われるものとする。   FIG. 14 is a diagram illustrating an example of a flow of alarm basic data generation processing. This process is started at a predetermined timing. For example, it is started when the number of times that the setting unit 307 sets monitoring data in the recording table T4 by the table operation unit 301 reaches a predetermined number. This process is performed for each individual ID of each surveillance camera unit ID.

先ず、アラーム基本データ生成部308が記録テーブルT4から個別IDの監視データをテーブル操作部301により取得し(S21)、監視データから当該牛91の行動情報を生成する(S22)。   First, the alarm basic data generation unit 308 acquires individual ID monitoring data from the recording table T4 by the table operation unit 301 (S21), and generates action information of the cow 91 from the monitoring data (S22).

続いて、アラーム基本データ生成部308は、当該牛91の行動情報をテーブル操作部301によりアラーム基本データ設定テーブルT5に設定する(S23)。   Subsequently, the alarm basic data generation unit 308 sets the behavior information of the cow 91 in the alarm basic data setting table T5 by the table operation unit 301 (S23).

なお、行動情報に生成方法については説明済みであるため、ここでの説明を省略する。   In addition, since it has already demonstrated the production | generation method to action information, description here is abbreviate | omitted.

図15は、閾値の決定処理のフローの一例を示す図である。以下の処理は、各監視カメラユニットIDの個別ID単位に行われるものとする。先ず、閾値決定部309が、閾値の更新時間になったかを判定する(S31)。更新時間は、例えば1日の終わりの、夜と次の日の朝の切り替わり時刻(一例としてAM4:00)などとする。なお、朝と昼の切り替わり時刻や、昼と夜の切り替わり時刻などとしてもよい。また、各切り替わりの時刻を指定してもよい。   FIG. 15 is a diagram illustrating an example of a flow of threshold determination processing. The following processing is performed for each individual ID of each monitoring camera unit ID. First, the threshold value determination unit 309 determines whether the threshold update time has come (S31). The update time is, for example, the switching time between the night and the morning of the next day (for example, AM 4:00) at the end of the day. In addition, it is good also as the switching time of morning and noon, the switching time of day and night, etc. Moreover, you may specify the time of each switching.

更新時間になった場合(S31:Yes判定)、閾値決定部309が、テーブル操作部301によりアラーム基本データ設定テーブルT5から個別IDの直近数日分の項目別の行動情報を取得する(S32)。   When the update time is reached (S31: Yes determination), the threshold value determination unit 309 acquires the action information for each item for the most recent days of the individual ID from the alarm basic data setting table T5 by the table operation unit 301 (S32). .

続いて、閾値決定部309は、朝と、昼と、夜の期間に分けて、当該個別IDの数日分の行動情報を項目別に移動平均などにより集計し、項目別の集計結果から、当該個別IDの閾値を、行動情報の項目別、期間別(朝の期間、昼の期間、夜の期間)に決定する(S33)。   Subsequently, the threshold value determination unit 309 divides the behavior information for several days of the individual ID into items such as a moving average by dividing into morning, noon, and night periods, The threshold of the individual ID is determined for each item of behavior information and for each period (morning period, noon period, night period) (S33).

そして、閾値決定部309は、閾値情報P5の各個別IDの閾値のセットを、決定した値に更新する(S34)。なお、閾値の初期値には、所定のデフォルト値が設定されるものとする。   Then, the threshold determination unit 309 updates the set of thresholds for each individual ID in the threshold information P5 to the determined value (S34). Note that a predetermined default value is set as the initial value of the threshold.

更新時間になっていない場合には(S31:No判定)、更新時間になるまで待機する。   If the update time has not been reached (S31: No determination), the process waits until the update time is reached.

図16は、牛91の異常行動判定処理のフローの一例を示す図である。判定部310は、所定の時間間隔(例えば5分置きなど)で次の異常行動判定処理を行う。   FIG. 16 is a diagram illustrating an example of a flow of abnormal behavior determination processing of the cow 91. The determination unit 310 performs the next abnormal action determination process at a predetermined time interval (for example, every 5 minutes).

先ず、判定部310は、設定情報Dから、異常行動を判定する牛房90の判定項目を取得する(S41)。   First, the determination part 310 acquires the determination item of the cow 90 which determines abnormal behavior from the setting information D (S41).

続いて、判定部310は、取得した判定項目ごとに、閾値情報P5から、当該牛房90の牛91の固体IDに設定されている閾値を取得する(S42)。   Subsequently, for each acquired determination item, the determination unit 310 acquires a threshold value set for the solid ID of the cow 91 of the cow 90 from the threshold information P5 (S42).

続いて、判定部310は、テーブル操作部301により、アラーム基本データ設定テーブルT5の当該判定時を含む期間(朝、昼、または夜)を対象に、アラーム基本データ設定テーブルT5における行動情報の項目別の集計値が、閾値情報P5から取得したそれぞれの項目の閾値を超える、牛91の個別IDを検索し、閾値を超える牛91の個別IDとその判定項目とを抽出する(S43)。ここで、集計値は、例えば、当該判定時が朝の期間のAM9:00である場合、判定当日の朝の期間(AM4:00〜AM9:00)の集計値である。具体的に、テーブル操作部301では、各牛91について、判定項目毎に、行動情報の集計値と、対応する上限値および下限値を比較し、行動情報の集計値が上限値および下限値の範囲外となる異常行動を含むかを判定する。   Subsequently, the determination unit 310 uses the table operation unit 301 to set the action information item in the alarm basic data setting table T5 for the period (morning, noon, or night) including the determination time in the alarm basic data setting table T5. The individual ID of the cow 91 whose other total value exceeds the threshold value of each item acquired from the threshold information P5 is searched, and the individual ID of the cow 91 exceeding the threshold value and its determination item are extracted (S43). Here, for example, when the determination time is AM 9:00 in the morning period, the aggregation value is an aggregation value in the morning period (AM 4: 00 to AM 9:00) on the determination day. Specifically, for each cow 91, the table operation unit 301 compares the total value of the behavior information with the corresponding upper limit value and lower limit value for each determination item, and the total value of the behavior information is the upper limit value and lower limit value. It is determined whether or not abnormal behavior that falls outside the range is included.

続いて、判定部310は、抽出結果から、牛91の異常行動を判定する(S44)。   Subsequently, the determination unit 310 determines the abnormal behavior of the cow 91 from the extraction result (S44).

牛91の個別IDとその判定項目とが抽出された場合(S44:Yes判定)、通知部311が、利用者情報登録テーブルT1に設定されているメールアドレス等の宛先を取得し、その宛先に異常信号を通知する(S45)。この際に、異常行動と判定された牛91の個別IDや、判定項目が示す仲間外れや、発情や、病気の兆候や、起立不可状態などの異常行動の内容などをその宛先に通知してもよい。また、ベテランの対処方法をデータベース化しておき、異常行動の内容に該当する対処方法をデータベースから抽出して、その内容を通知してもよい。   When the individual ID of the cow 91 and its determination item are extracted (S44: Yes determination), the notification unit 311 acquires a destination such as a mail address set in the user information registration table T1, and uses the destination as the destination. An abnormal signal is notified (S45). At this time, even if the individual ID of the cow 91 determined to be abnormal behavior, the detachment indicated by the determination item, the estrus, the sign of illness, the content of abnormal behavior such as a standing-up state, etc. are notified to the destination Good. Further, a veteran coping method may be stored in a database, a coping method corresponding to the content of the abnormal action may be extracted from the database, and the content may be notified.

牛91の個別IDとその行動情報の項目名とが抽出されない場合は(S44:No判定)、本処理を終了する。   When the individual ID of the cow 91 and the item name of the behavior information are not extracted (S44: No determination), this process is terminated.

異常行動を示す牛91の個別IDの検索は例えば次のように行う。例えば、行動情報の内の座位時間が継続中の個体IDを検索し、その個体IDの近似楕円など、最新の被写体の図形を取得する。そして、その図形の縦と横の比が所定の範囲から外れていたり、輪郭面積が所定の面積よりも大きかったりすると牛91が横臥状態であると判断する。一例として、図形が近似楕円の場合、長軸と短軸のそれぞれの長さ(長径と短径)の比から、牛91の横臥を判断する。牛91は、上方から見た場合、横臥状態になると、長径と短径との長さの比が大きく変化する。この長さの比の変化から牛91の横臥を判断する。そして、横臥状態が一定時間以上続いた場合、牛91は、横臥から座位に戻れなくなる起立不可の状態であると判断し、異常行動があるものと判定する。   The search for the individual ID of the cow 91 showing abnormal behavior is performed as follows, for example. For example, an individual ID whose sitting time is continued in the behavior information is searched, and the latest figure of the subject such as an approximate ellipse of the individual ID is acquired. Then, if the vertical / horizontal ratio of the figure is out of the predetermined range, or the contour area is larger than the predetermined area, it is determined that the cow 91 is in the lying state. As an example, when the figure is an approximate ellipse, the recumbency of the cow 91 is determined from the ratio of the lengths of the major axis and the minor axis (major axis and minor axis). When the cow 91 is in a lying state when viewed from above, the ratio of the length of the major axis to the minor axis changes greatly. The recumbency of the cow 91 is determined from the change in the ratio of the lengths. If the recumbent state continues for a predetermined time or longer, the cow 91 is determined to be in a state of being unable to stand up from the recumbent position and cannot determine to have abnormal behavior.

また、判定部310は、直近の所定期間の行動情報の内の接触回数が多い個体IDを検索し、その個体IDの直近の所定期間の移動距離が他の牛91と比べて多かったり、エサを食べる回数が少なかったり、他の牛91よりも立位時間が長かったりした場合に、発情と判断し、異常があるものと判定する。   In addition, the determination unit 310 searches for an individual ID having a large number of contacts in the behavior information of the most recent predetermined period, and the movement distance of the individual ID for the most recent predetermined period is greater than that of the other cattle 91. When the number of times of eating is less or when standing time is longer than other cows 91, it is determined that it is estrus, and it is determined that there is an abnormality.

また、判定部310は、直近の所定期間の行動情報の内の接触回数が極端に少ない個体IDを検索し、その牛91を仲間外れと判断し、異常があるものと判定する。   In addition, the determination unit 310 searches for an individual ID with extremely few contacts in the behavior information for the most recent predetermined period, determines that the cow 91 is out of the group, and determines that there is an abnormality.

また、判定部310は、直近の所定期間の行動情報の内の移動距離が極端に少ない個体IDを検索し、その個体IDの直近の所定期間の水飲みやエサの回数などから病気の兆候を判断し、異常があるものと判定する。   In addition, the determination unit 310 searches for an individual ID whose movement distance is extremely small in the behavior information of the most recent predetermined period, and determines a sign of illness from the number of times of drinking or feeding during the most recent predetermined period of the individual ID. It is determined that there is an abnormality.

本実施例では、監視対象の牛を対象に監視データを生成し、その監視データを使用して異常行動を判定したが、当該監視データに、更に環境情報(例えば温度や天候などの情報)を含めてもよい。例えば、監視カメラ10aに温度センサを接続し、当該温度センサが検出した牛房内の温度情報をコントローラPCを通じてクラウドに出力する。また、天候情報については、例えば天候情報を時系列で提供する天候データベースなどから取得する。牛の行動を示す行動情報に、これらの環境情報を含めて異常行動を判定する。   In this embodiment, monitoring data is generated for the monitoring target cow, and abnormal behavior is determined using the monitoring data. However, environmental information (for example, information such as temperature and weather) is further added to the monitoring data. May be included. For example, a temperature sensor is connected to the monitoring camera 10a, and the temperature information in the cow chamber detected by the temperature sensor is output to the cloud through the controller PC. The weather information is acquired from, for example, a weather database that provides weather information in time series. Abnormal behavior is determined by including such environmental information in the behavior information indicating the behavior of the cow.

以上により、本実施例では、監視の対象となる牛へ直接センサを取り付ける必要がなくなるので、牛への負担を小さくする、或いはなくすことができる。また、牛の様々な情報を含む監視データを随時蓄積して、蓄積した監視データからリアルタイム或いは少ないタイムラグで牛のわずかな行動の変化を発見することができる。このため、牛に異常な行動が見られれば、直ちに、その牛の飼育者の畜産農家へ通知し、その牛の対応を早期に行わせることが可能になる。起立不可状態にある牛であれば、その牛の上体を起こし、病気の兆候が見られる牛であれば、早期に治療することにより、牛の死廃率を低下させることができる。   As described above, in this embodiment, since it is not necessary to directly attach a sensor to the cow to be monitored, the burden on the cow can be reduced or eliminated. Moreover, monitoring data including various information on cattle can be accumulated at any time, and slight changes in behavior of cattle can be found from the accumulated monitoring data in real time or with a small time lag. For this reason, if an abnormal behavior is observed in a cow, it is possible to immediately notify the livestock farmer of the cow breeder, and to promptly respond to the cow. If it is a cow in a state where it cannot stand, the cow's upper body is raised, and if it is a cow that shows signs of illness, the death rate of the cow can be reduced by treating it early.

また、経験の浅い新規就農者に対しても、牛の異常行動があれば、熟練者と等しく牛の異常を通知するため、牛の行動の変化に気が付かずに見過ごすことが減り、牛の死廃率を低下させることができる。また、設定により熟練者の対象方法をメールで通知することも可能であるため、熟練者と同様の対処を行うことが可能になる。   Inexperienced new farmers are also notified of cattle abnormalities if they have abnormal behaviors of cattle, so they are less aware of changes in cattle behavior and are not aware of changes in cattle behavior. The scrap rate can be reduced. Moreover, since it is possible to notify the subject method of the expert by e-mail by setting, it is possible to perform the same countermeasures as the expert.

本実施例では、主に検出部303が「第1の検出手段」に該当する。主に補助部304が「第2の検出手段」に該当する。主に監視データ生成部305や、対応付け部306や、設定部307や、アラーム基本データ生成部308などが「生成手段」に該当する。主に閾値決定部309や判定部310などが「判定手段」に該当する。主に通知部311が「通知手段」に該当する。なお、各手段と各機能との対応関係はこれに限らない。情報処理システムの構成に応じて適宜組み合わせを変えたり、一部の機能を他の機能に置き換えたり、一部の機能を削除したり、他の機能を追加したりしてもよい。   In the present embodiment, the detection unit 303 mainly corresponds to “first detection means”. The auxiliary unit 304 mainly corresponds to “second detection means”. The monitoring data generating unit 305, the associating unit 306, the setting unit 307, the alarm basic data generating unit 308, etc. mainly correspond to “generating means”. The threshold determination unit 309, the determination unit 310, and the like mainly correspond to “determination means”. The notification unit 311 mainly corresponds to “notification means”. The correspondence relationship between each means and each function is not limited to this. Combinations may be changed as appropriate according to the configuration of the information processing system, some functions may be replaced with other functions, some functions may be deleted, and other functions may be added.

本実施例では、CPUがHDDのプログラムをRAMにロードして機能を実現する例について示したが、当該機能の一部または全てをASIC(Application Specific Integrated Circuit)などのハードウエアで構成してもよい。   In this embodiment, an example is shown in which the CPU loads the HDD program into the RAM to realize the function. However, a part or all of the function may be configured by hardware such as an ASIC (Application Specific Integrated Circuit). Good.

(変形例)
また、当該機能の一部または全てを「機械学習手段」であるAI(人工知能)で行えるように変形してもよい。例えば、アラーム基本データ生成部308や、閾値決定部309や、判定部310などの処理をAIで行う。
(Modification)
Moreover, you may deform | transform so that a part or all of the said function can be performed by AI (artificial intelligence) which is a "machine learning means." For example, processing such as the alarm basic data generation unit 308, the threshold value determination unit 309, and the determination unit 310 is performed by AI.

アラーム基本データ生成部308については、アラーム基本データ生成部308が取得した監視データから行動情報を生成する処理をAIで行う。例えばAIに入力値として監視データを与え、AIで機械学習を繰り返す。AIからは、異常行動についての判定の誤りが最小限に最適化された方法で算出された行動情報の出力値を得る。   For the alarm basic data generation unit 308, processing for generating action information from the monitoring data acquired by the alarm basic data generation unit 308 is performed by AI. For example, monitoring data is given to AI as an input value, and machine learning is repeated at AI. From AI, an output value of action information calculated by a method in which an error in determination of abnormal action is optimized to a minimum is obtained.

閾値決定部309については、閾値の決定処理をAIで行う。例えばAIに入力値として行動情報を与え、AIで機械学習を繰り返す。AIからは、異常行動についての判定の誤りが最小限に最適化された方法で算出された閾値の出力値を得る。   The threshold value determination unit 309 performs threshold value determination processing using AI. For example, action information is given to AI as an input value, and machine learning is repeated at AI. From the AI, a threshold output value calculated by a method in which an error in determination of abnormal behavior is optimized to a minimum is obtained.

判定部310については、異常行動の判定処理においてAIを利用する。AIに入力値として判定時の期間内の行動情報などを与え、機械学習を繰り返すことにより、異常行動の判定項目の結果等の誤りが最小限に最適化された算出方法で、判定項目の結果を示す出力値を得る。   About the determination part 310, AI is utilized in the determination process of abnormal action. The result of the determination item is a calculation method in which errors such as the result of the abnormal action determination item are optimized to a minimum by giving the AI action information within the determination time period as an input value and repeating machine learning. An output value indicating is obtained.

なお、アラーム基本データ生成部308、閾値決定部309、および判定部310の内の何れか2以上を組み合わせた一連の処理をAIで行なってもよい。   Note that a series of processes in which any two or more of the alarm basic data generation unit 308, the threshold value determination unit 309, and the determination unit 310 are combined may be performed by AI.

1 情報処理システム
10 監視カメラユニット
10a 監視カメラ
10b コントロールPC
20 クラウド
21 ストレージ
30 分析サーバ装置
40 管理PC
50 利用者端末
60 ネットワーク
70 異常信号
80 管理棟
90 牛房
90b 育成エリア
1 Information Processing System 10 Surveillance Camera Unit 10a Surveillance Camera 10b Control PC
20 Cloud 21 Storage 30 Analysis server device 40 Management PC
50 User terminal 60 Network 70 Abnormal signal 80 Management building 90 Ushibo 90b Breeding area

Claims (12)

監視領域の空間情報を出力する空間センサと、
前記空間センサから出力された前記空間情報から監視対象の複数の動く物体の物体情報を検出する第1の検出手段と、
前記第1の検出手段が検出した前記物体情報において前記複数の動く物体の内の互いに接触している動く物体の配置情報を検出する第2の検出手段と、
前記物体情報および前記配置情報から前記複数の動く物体の行動情報を生成する生成手段と、
前記行動情報から前記動く物体の行動が異常行動であるかを判定する判定手段と、
前記動く物体の行動が異常行動であると判定された場合に異常を通知する通知手段と、
を有することを特徴とする情報処理システム。
A spatial sensor that outputs spatial information of the monitoring area;
First detection means for detecting object information of a plurality of moving objects to be monitored from the spatial information output from the spatial sensor;
Second detection means for detecting arrangement information of moving objects in contact with each other among the plurality of moving objects in the object information detected by the first detection means;
Generating means for generating behavior information of the plurality of moving objects from the object information and the arrangement information;
Determination means for determining whether the action of the moving object is an abnormal action from the action information;
Notification means for notifying abnormality when it is determined that the action of the moving object is an abnormal action;
An information processing system comprising:
前記物体情報は、前記複数の動く物体の輪郭を示す輪郭情報であり、
前記第2の検出手段は、前記複数の動く物体の輪郭に含まれている1組または複数組の特異点を検出し、前記互いに接触している動く物体のそれぞれの輪郭を前記各組の特異点を結ぶ境界を境に区別する配置情報を検出する、
ことを特徴とする請求項1に記載の情報処理システム。
The object information is contour information indicating contours of the plurality of moving objects,
The second detection means detects one set or a plurality of sets of singular points included in the outlines of the plurality of moving objects, and the respective outlines of the moving objects in contact with each other are detected. Detect placement information that distinguishes the boundary connecting points,
The information processing system according to claim 1.
前記特異点は、前記空間センサから所定のフレームレートで出力される前記空間情報において、前記輪郭上の隣り合う2点を結ぶ線分の内の隣接する線分のなす角が複数フレーム内で所定角度以内に変化する点とする、
ことを特徴とする請求項2に記載の情報処理システム。
In the spatial information output from the spatial sensor at a predetermined frame rate, the singular point has a predetermined angle within a plurality of frames formed by adjacent line segments connecting two adjacent points on the contour. A point that changes within an angle
The information processing system according to claim 2.
前記複数の動く物体のステージ情報と前記異常行動の判定項目とを対応付ける対応情報を有し、
前記判定手段は、前記対応情報に基づき、前記複数の動く物体のステージ情報に該当する異常行動の判定項目について、前記行動情報から前記動く物体の行動が異常行動であるかを判定する、
ことを特徴とする請求項1乃至3の内の何れか一項に記載の情報処理システム。
Having correspondence information associating stage information of the plurality of moving objects and the determination item of the abnormal behavior;
The determination means determines, based on the correspondence information, whether or not the action of the moving object is an abnormal action from the action information for a determination item of abnormal action corresponding to the stage information of the plurality of moving objects.
The information processing system according to claim 1, wherein the information processing system is an information processing system.
前記判定手段は、前記複数の動く物体の直近の所定日数分の行動情報に基づいて決定した異常行動を示す閾値と、前記判定手段の判定当日の前記行動情報とを比較し、前記異常行動であるかを判定する、
ことを特徴とする請求項1乃至4の内の何れか一項に記載の情報処理システム。
The determination unit compares a threshold value indicating abnormal behavior determined based on behavior information for a predetermined number of days nearest to the plurality of moving objects and the behavior information on the determination day of the determination unit, and determines the abnormal behavior. Determine if there is,
The information processing system according to claim 1, wherein the information processing system is an information processing system.
前記生成手段は、前記物体情報および前記配置情報を前記動く物体の輪郭に近似した近似図形に変換し、前記空間センサから所定のフレームレートで出力される前記空間情報に対応する時系列順の前記近似図形に基づいて前記行動情報を生成する、
ことを特徴とする請求項1乃至5の内の何れか一項に記載の情報処理システム。
The generating means converts the object information and the arrangement information into an approximate figure approximating an outline of the moving object, and the time-series order corresponding to the spatial information output from the spatial sensor at a predetermined frame rate. Generating the behavior information based on the approximate figure,
The information processing system according to any one of claims 1 to 5, wherein
前記判定手段は、前記近似図形の長軸の長さと短軸の長さの比に基づいて、前記複数の動く物体が起立不可の状態にあると判定する、
ことを特徴とする請求項6に記載の情報処理システム。
The determining means determines that the plurality of moving objects are in a state in which they cannot stand up based on a ratio of a length of a major axis to a length of a minor axis of the approximate figure.
The information processing system according to claim 6.
前記判定手段は、前記近似図形の輪郭面積に基づいて、前記複数の動く物体が起立不可の状態にあると判定する、
ことを特徴とする請求項6に記載の情報処理システム。
The determination unit determines that the plurality of moving objects are in a state where they cannot stand up based on a contour area of the approximate graphic.
The information processing system according to claim 6.
前記生成手段は、前記第2の検出手段による前記配置情報の検出に基づき、前記行動情報として接触回数情報を生成する、
ことを特徴とする請求項1乃至8の内の何れか一項に記載の情報処理システム。
The generation means generates contact number information as the behavior information based on the detection of the arrangement information by the second detection means.
The information processing system according to claim 1, wherein the information processing system is an information processing system.
前記生成手段または前記判定手段の一部に機械学習を行う機械学習手段を有する、
ことを特徴とする請求項1乃至9の内の何れか一項に記載の情報処理システム。
Machine learning means for performing machine learning in a part of the generation means or the determination means;
The information processing system according to any one of claims 1 to 9, wherein
空間センサから出力された空間情報から監視対象の複数の動く物体の物体情報を検出する第1の検出手段と、
前記第1の検出手段が検出した前記物体情報において前記複数の動く物体の内の互いに接触している動く物体の配置情報を検出する第2の検出手段と、
前記物体情報および前記配置情報から前記複数の動く物体の行動情報を生成する生成手段と、
前記行動情報から前記動く物体の行動が異常行動であるかを判定する判定手段と、
前記動く物体の行動が異常行動であると判定された場合に異常を通知する通知手段と、
を有する情報処理装置。
First detection means for detecting object information of a plurality of moving objects to be monitored from space information output from the space sensor;
Second detection means for detecting arrangement information of moving objects in contact with each other among the plurality of moving objects in the object information detected by the first detection means;
Generating means for generating behavior information of the plurality of moving objects from the object information and the arrangement information;
Determination means for determining whether the action of the moving object is an abnormal action from the action information;
Notification means for notifying abnormality when it is determined that the action of the moving object is an abnormal action;
An information processing apparatus.
コンピュータを、
空間センサから出力された空間情報から監視対象の複数の動く物体の物体情報を検出する第1の検出手段と、
前記第1の検出手段が検出した前記物体情報において前記複数の動く物体の内の互いに接触している動く物体の配置情報を検出する第2の検出手段と、
前記物体情報および前記配置情報から前記複数の動く物体の行動情報を生成する生成手段と、
前記行動情報から前記動く物体の行動が異常行動であるかを判定する判定手段と、
前記動く物体の行動が異常行動であると判定された場合に異常を通知する通知手段と、
して機能させるためのプログラム。
Computer
First detection means for detecting object information of a plurality of moving objects to be monitored from space information output from the space sensor;
Second detection means for detecting arrangement information of moving objects in contact with each other among the plurality of moving objects in the object information detected by the first detection means;
Generating means for generating behavior information of the plurality of moving objects from the object information and the arrangement information;
Determination means for determining whether the action of the moving object is an abnormal action from the action information;
Notification means for notifying abnormality when it is determined that the action of the moving object is an abnormal action;
Program to make it function.
JP2018028328A 2017-07-31 2018-02-20 Information processing systems, information processing equipment, and programs Active JP7002066B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017148292 2017-07-31
JP2017148292 2017-07-31

Publications (2)

Publication Number Publication Date
JP2019024482A true JP2019024482A (en) 2019-02-21
JP7002066B2 JP7002066B2 (en) 2022-01-20

Family

ID=65476939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018028328A Active JP7002066B2 (en) 2017-07-31 2018-02-20 Information processing systems, information processing equipment, and programs

Country Status (1)

Country Link
JP (1) JP7002066B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200105558A (en) * 2019-02-28 2020-09-08 주식회사 에스티엔 A Computer Vision for the Prediction System of Livestock Diseases and Their Methods
JP2020156393A (en) * 2019-03-26 2020-10-01 富士通株式会社 Behavior detection program, behavior detection method and behavior detection system
JP2021086441A (en) * 2019-11-28 2021-06-03 シャープ株式会社 Learning device, individual identification device, animal monitoring device, learning method, and control program
WO2021255898A1 (en) * 2020-06-18 2021-12-23 日本電気株式会社 Information processing device, information processing method, information processing system, and computer-readable storage medium
WO2022004035A1 (en) * 2020-06-30 2022-01-06 三菱電機株式会社 Livestock management system, learning device and inference device, and biometric monitoring system
JP2022013910A (en) * 2020-07-01 2022-01-18 国立研究開発法人農業・食品産業技術総合研究機構 Data generation device for learning, learning device, action analysis device, action type analysis device, program, and recording medium
WO2022097805A1 (en) * 2020-11-04 2022-05-12 한국전자기술연구원 Method, device, and system for detecting abnormal event
JPWO2022153829A1 (en) * 2021-01-18 2022-07-21
JP2022110224A (en) * 2021-01-18 2022-07-29 日本ハム株式会社 Pig breeding support device, pig breeding support method, and pig breeding support program
JP2022125851A (en) * 2021-02-17 2022-08-29 国立研究開発法人農業・食品産業技術総合研究機構 Estrus detector, estrus detection method, estrus detection program and recording medium
JP7366300B1 (en) 2023-03-20 2023-10-20 太平洋工業株式会社 Estrus sign detection system
JP7410607B1 (en) 2023-07-24 2024-01-10 株式会社Eco‐Pork Feeding management system and feeding management method
JP2024145250A (en) * 2023-03-31 2024-10-15 Nttテクノクロス株式会社 Livestock management device, livestock management method, and program
JP2024145248A (en) * 2023-03-31 2024-10-15 Nttテクノクロス株式会社 Anomaly detection device, anomaly detection method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5474085A (en) * 1994-02-24 1995-12-12 University Of Prince Edward Island Remote thermographic sensing of livestock

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5474085A (en) * 1994-02-24 1995-12-12 University Of Prince Edward Island Remote thermographic sensing of livestock

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"牛の状態 赤外線で把握", 日本経済新聞, JPN6021010525, 28 September 2016 (2016-09-28), JP, ISSN: 0004550510 *
"牛の監視システム開発", 茨城新聞, JPN6021010526, 2 September 2016 (2016-09-02), JP, ISSN: 0004550509 *
"牛の行動 疾病や発情検知", 日本農業新聞, JPN6021010529, 12 October 2016 (2016-10-12), JP, ISSN: 0004550508 *
DU-MING TSAI AND CHING-YING HUANG: "A motion and image analysis method for automatic detection of estrus and mating behavior in cattle", COMPUTERS AND ELECTRONICS IN AGRICULTURE, vol. 104, JPN6020048328, June 2014 (2014-06-01), pages 25 - 31, ISSN: 0004550507 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200105558A (en) * 2019-02-28 2020-09-08 주식회사 에스티엔 A Computer Vision for the Prediction System of Livestock Diseases and Their Methods
KR102307478B1 (en) 2019-02-28 2021-10-01 주식회사 에스티엔 A Computer Vision for the Prediction System of Livestock Diseases and Their Methods
JP2020156393A (en) * 2019-03-26 2020-10-01 富士通株式会社 Behavior detection program, behavior detection method and behavior detection system
JP2021086441A (en) * 2019-11-28 2021-06-03 シャープ株式会社 Learning device, individual identification device, animal monitoring device, learning method, and control program
WO2021255898A1 (en) * 2020-06-18 2021-12-23 日本電気株式会社 Information processing device, information processing method, information processing system, and computer-readable storage medium
JPWO2021255898A1 (en) * 2020-06-18 2021-12-23
WO2022004035A1 (en) * 2020-06-30 2022-01-06 三菱電機株式会社 Livestock management system, learning device and inference device, and biometric monitoring system
JPWO2022004035A1 (en) * 2020-06-30 2022-01-06
JP7455209B2 (en) 2020-06-30 2024-03-25 三菱電機株式会社 Livestock management systems, learning devices and reasoning devices
JP7260922B2 (en) 2020-07-01 2023-04-19 国立研究開発法人農業・食品産業技術総合研究機構 Learning data generation device, learning device, behavior analysis device, behavior analysis device, program, and recording medium
JP7554506B2 (en) 2020-07-01 2024-09-20 国立研究開発法人農業・食品産業技術総合研究機構 BEHAVIORAL ANALYSIS DEVICE, BEHAVIORAL ANALYSIS METHOD, BEHAVIORAL ANALYSIS PROGRAM, AND RECORDING MEDIUM
JP2022013910A (en) * 2020-07-01 2022-01-18 国立研究開発法人農業・食品産業技術総合研究機構 Data generation device for learning, learning device, action analysis device, action type analysis device, program, and recording medium
JP2023073478A (en) * 2020-07-01 2023-05-25 国立研究開発法人農業・食品産業技術総合研究機構 Behavioral analysis device, behavioral analysis method, behavioral analysis program, and recording medium
WO2022097805A1 (en) * 2020-11-04 2022-05-12 한국전자기술연구원 Method, device, and system for detecting abnormal event
JP7445612B2 (en) 2021-01-18 2024-03-07 日本ハム株式会社 Pig breeding support device, pig breeding support method, and pig breeding support program
WO2022153829A1 (en) * 2021-01-18 2022-07-21 日本ハム株式会社 Pig rearing assistance apparatus, pig rearing assistance method, and pig rearing assistance program
JP2022110224A (en) * 2021-01-18 2022-07-29 日本ハム株式会社 Pig breeding support device, pig breeding support method, and pig breeding support program
JPWO2022153829A1 (en) * 2021-01-18 2022-07-21
JP7527646B2 (en) 2021-02-17 2024-08-05 国立研究開発法人農業・食品産業技術総合研究機構 Estrus detection device, estrus detection method, estrus detection program, and recording medium
JP2022125851A (en) * 2021-02-17 2022-08-29 国立研究開発法人農業・食品産業技術総合研究機構 Estrus detector, estrus detection method, estrus detection program and recording medium
JP7366300B1 (en) 2023-03-20 2023-10-20 太平洋工業株式会社 Estrus sign detection system
WO2024195300A1 (en) * 2023-03-20 2024-09-26 太平洋工業株式会社 Estrus sign detection system
JP2024133988A (en) * 2023-03-20 2024-10-03 太平洋工業株式会社 Estrus Sign Detection System
JP2024145250A (en) * 2023-03-31 2024-10-15 Nttテクノクロス株式会社 Livestock management device, livestock management method, and program
JP2024145248A (en) * 2023-03-31 2024-10-15 Nttテクノクロス株式会社 Anomaly detection device, anomaly detection method, and program
JP7746325B2 (en) 2023-03-31 2025-09-30 Nttテクノクロス株式会社 Livestock management device, livestock management method and program
JP7410607B1 (en) 2023-07-24 2024-01-10 株式会社Eco‐Pork Feeding management system and feeding management method
JP2025016839A (en) * 2023-07-24 2025-02-05 株式会社Eco‐Pork Feeding management system and feeding management method

Also Published As

Publication number Publication date
JP7002066B2 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
JP7002066B2 (en) Information processing systems, information processing equipment, and programs
US11910784B2 (en) Animal visual identification, tracking, monitoring and assessment systems and methods thereof
US20250200924A1 (en) Monitoring livestock in an agricultural pen
KR101607934B1 (en) The method for monitoring communicable disease and system using the method, recording medium for performing the method
US20240382109A1 (en) Systems and methods for the automated monitoring of animal physiological conditions and for the prediction of animal phenotypes and health outcomes
KR102527322B1 (en) Method and device for managing livestock through object recognition based on deep learning
KR102518418B1 (en) Apparatus and method for analyzing ruminant and breeding environment based on image analysis
JP7410607B1 (en) Feeding management system and feeding management method
JP7554506B2 (en) BEHAVIORAL ANALYSIS DEVICE, BEHAVIORAL ANALYSIS METHOD, BEHAVIORAL ANALYSIS PROGRAM, AND RECORDING MEDIUM
KR102425522B1 (en) Method for Establishing Prevention Boundary of Epidemics of Livestock Based On Image Information Analysis
JP2020156393A (en) Behavior detection program, behavior detection method and behavior detection system
JP2023015924A (en) Production management system, production management method, and program
CN116385965A (en) Method, apparatus and computer readable storage medium for identifying a wandering animal
US12465025B2 (en) Animal detecting device, system, method and computer program
CN118942115A (en) UAV-assisted intelligent breeding management method and system
CN116963595A (en) Pig feeding auxiliary device, pig feeding auxiliary method and pig feeding auxiliary program
WO2022070128A1 (en) System and method for automatic mortality detection and management
US20250338830A1 (en) Ai-based livestock management system and livestock management method thereof
WO2023190024A1 (en) Free-range livestock management server device, system, method, and program
JP2022143047A (en) Behavior prediction model generation device, behavior prediction device, behavior prediction model generation system, behavior prediction model generation method and program
WO2024246239A1 (en) Autonomous livestock monitoring
KR20250030240A (en) Apparatus and method for analysis system providing result of analyzing ornamental fish in under water space
CN108288057A (en) A kind of movable type poultry vital signs detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210209

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211215

R150 Certificate of patent or registration of utility model

Ref document number: 7002066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250