[go: up one dir, main page]

JP2018182569A - IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, INFORMATION PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD - Google Patents

IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, INFORMATION PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD Download PDF

Info

Publication number
JP2018182569A
JP2018182569A JP2017080747A JP2017080747A JP2018182569A JP 2018182569 A JP2018182569 A JP 2018182569A JP 2017080747 A JP2017080747 A JP 2017080747A JP 2017080747 A JP2017080747 A JP 2017080747A JP 2018182569 A JP2018182569 A JP 2018182569A
Authority
JP
Japan
Prior art keywords
data
unit
difference
image
subband
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017080747A
Other languages
Japanese (ja)
Inventor
水野 雄介
Yusuke Mizuno
雄介 水野
孝雄 尾上
Takao Onoe
孝雄 尾上
載勲 劉
Jaehoon Yu
載勲 劉
浩一 光成
Koichi Mitsunari
浩一 光成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
University of Osaka NUC
Original Assignee
MegaChips Corp
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp, Osaka University NUC filed Critical MegaChips Corp
Priority to JP2017080747A priority Critical patent/JP2018182569A/en
Priority to PCT/JP2018/014285 priority patent/WO2018190199A1/en
Publication of JP2018182569A publication Critical patent/JP2018182569A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

【課題】画像処理装置の低消費電力化を図ることが可能な技術を提供する。【解決手段】画像処理装置は、第1生成部、第2生成部、第1決定部、符号化部及び第1送信部を備える。第1生成部は、フレーム画像を示す階層化された階層化データを生成する。第2生成部は、2つのフレーム画像についての階層化データの差分を示す差分階層化データを生成する。第1決定部は、差分階層化データのうち、その値の絶対値がしきい値以上あるいは当該しきい値よりも大きい第1データに基づいて、差分階層化データから送信対象データを決定する。符号化部は、送信対象データを圧縮符号化して符号化データを生成する。第1送信部は、符号化データを送信する。【選択図】図3A technology capable of reducing power consumption of an image processing apparatus is provided. An image processing apparatus includes a first generation unit, a second generation unit, a first determination unit, an encoding unit, and a first transmission unit. The first generation unit generates hierarchized hierarchical data indicating a frame image. The second generation unit generates difference layered data indicating a difference between layered data for two frame images. A 1st determination part determines transmission object data from difference hierarchization data based on 1st data whose absolute value of the value is more than a threshold value or larger than the said threshold value among difference hierarchization data. The encoding unit compresses and encodes the transmission target data to generate encoded data. The first transmission unit transmits encoded data. [Selection] Figure 3

Description

本発明は、画像処理に関する。   The present invention relates to image processing.

特許文献1及び2には、画像処理に関する技術が開示されている。   Patent Documents 1 and 2 disclose techniques related to image processing.

特開2015−192321号公報JP, 2015-192321, A 特開2003−219386号公報Unexamined-Japanese-Patent No. 2003-219386

画像処理装置については、その消費電力の低減が望まれている。   For the image processing apparatus, reduction of the power consumption is desired.

そこで、本発明は上述の点に鑑みて成されたものであり、画像処理装置の低消費電力化を図ることが可能な技術を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described point, and an object thereof is to provide a technology capable of reducing the power consumption of an image processing apparatus.

画像処理装置の一態様は、フレーム画像を示す階層化された階層化データを生成する第1生成部と、2つのフレーム画像についての前記階層化データの差分を示す差分階層化データを生成する第2生成部と、前記差分階層化データのうち、その値の絶対値がしきい値以上あるいは当該しきい値よりも大きい第1データに基づいて、前記差分階層化データから送信対象データを決定する第1決定部と、前記送信対象データを圧縮符号化して符号化データを生成する符号化部と、前記符号化データを送信する第1送信部とを備える。   One aspect of the image processing apparatus includes: a first generation unit that generates hierarchically layered data indicating a frame image; and differential hierarchical data indicating differences between the hierarchical data of two frame images The data to be transmitted is determined from the differentially-layered data based on first generation data, of the differentially-layered data, and an absolute value of the value is greater than or equal to a threshold value. A first determination unit, an encoding unit that compression-codes the transmission target data to generate encoded data, and a first transmission unit that transmits the encoded data.

また、画像処理装置の一態様は、上記の画像処理装置である第1装置と通信する第2装置である画像処理装置であって、前記第1装置から送信される前記符号化データを受信する受信部と、前記符号化データに基づいて処理を行う処理部とを備える。   Further, one aspect of the image processing apparatus is an image processing apparatus which is a second apparatus which communicates with the first apparatus which is the above-mentioned image processing apparatus, and receives the encoded data transmitted from the first apparatus And a processing unit that performs processing based on the encoded data.

また、画像処理システムの一態様は、上記の第1装置と、上記の第2装置とを備える。   Further, one aspect of the image processing system includes the first device described above and the second device described above.

また、情報処理システムの一態様は、上記の画像処理システムと、前記画像処理システムの前記第2装置から、前記処理部での処理の結果を受け取る第3装置と備える。   Further, one aspect of the information processing system includes: the image processing system described above; and a third device that receives a result of processing in the processing unit from the second device of the image processing system.

また、画像処理方法の一態様は、画像処理装置での画像処理方法であって、フレーム画像を示す階層化された階層化データを生成する工程と、2つのフレーム画像についての前記階層化データの差分を示す差分階層化データを生成する工程と、前記差分階層化データのうち、その値の絶対値がしきい値以上あるいは当該しきい値よりも大きいデータに基づいて、前記差分階層化データから送信対象データを決定する工程と、前記送信対象データを圧縮符号化して符号化データを生成する工程と、前記符号化データを送信する工程とを備える。   Further, one aspect of the image processing method is the image processing method in the image processing apparatus, which includes the steps of generating hierarchical data showing a frame image and the hierarchical data of the two frame images. From the step of generating difference hierarchical data indicating a difference, and based on data of the difference hierarchical data, the absolute value of the value is greater than or equal to a threshold value or larger than the threshold value. The method includes the steps of: determining transmission target data; compressing and encoding the transmission target data to generate encoded data; and transmitting the encoded data.

画像処理装置の低消費電力化が可能となる。   It is possible to reduce the power consumption of the image processing apparatus.

情報処理システムの構成の一例を示す図である。It is a figure showing an example of the composition of an information processing system. 情報処理システムの適用例の一例を示す図である。It is a figure which shows an example of the application example of an information processing system. IoT端末の構成の一例を示す図である。It is a figure which shows an example of a structure of an IoT terminal. ゲートウェイの構成の一例を示す図である。It is a figure which shows an example of a structure of a gateway. 階層化部の構成の一例を示す図である。It is a figure which shows an example of a structure of a hierarchy part. ウェーブレット平面の一例を示す図である。It is a figure which shows an example of a wavelet plane. ウェーブレット平面の一例を示す図である。It is a figure which shows an example of a wavelet plane. ウェーブレット平面の一例を示す図である。It is a figure which shows an example of a wavelet plane. フレーム画像の一例を示す図である。It is a figure which shows an example of a frame image. ウェーブレット平面の一例を示す図である。It is a figure which shows an example of a wavelet plane. 差分生成部の構成の一例を示す図である。It is a figure which shows an example of a structure of a difference production | generation part. 決定部の構成の一例を示す図である。It is a figure which shows an example of a structure of a determination part. フレーム画像の一例を示す図である。It is a figure which shows an example of a frame image. 差分フレームマスクの一例を示す図である。It is a figure which shows an example of a difference frame mask. 統合サブバンドマスクの生成方法の一例を説明するための図である。It is a figure for demonstrating an example of the production | generation method of an integrated sub-band mask. 統合サブバンドマスクの生成方法の一例を説明するための図である。It is a figure for demonstrating an example of the production | generation method of an integrated sub-band mask. 量子化差分ウェーブレット平面とコードブロックの対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of a quantization difference wavelet plane and a code block. 統合サブバンドマスクとコードブロックの対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of an integrated sub-band mask and a code block. 統合サブバンドマスクとコードブロックの対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of an integrated sub-band mask and a code block. 符号化装置の構成の一例を示す図である。It is a figure which shows an example of a structure of an encoding apparatus. 係数ビットモデリング部の動作の一例を説明するための図である。It is a figure for demonstrating an example of operation | movement of a coefficient bit modeling part. 係数ビットモデリング部の動作の一例を説明するための図である。It is a figure for demonstrating an example of operation | movement of a coefficient bit modeling part. 復号化装置の構成の一例を示す図である。It is a figure which shows an example of a structure of a decoding apparatus. データ処理部の構成の一例を示す図である。It is a figure which shows an example of a structure of a data processing part. 認識用データ生成部の構成の一例を示す図である。It is a figure which shows an example of a structure of the data generation part for recognition. 画像認識部の構成の一例を示す図である。It is a figure which shows an example of a structure of an image recognition part. 画像認識部の動作の一例を説明するための図である。It is a figure for demonstrating an example of operation | movement of an image recognition part. トランスコーダの構成の一例を示す図である。It is a figure which shows an example of a structure of a transcoder. ゲートウェイの動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of a gateway. IoT端末の一例を示すフローチャートである。It is a flowchart which shows an example of an IoT terminal. ラベリング処理された統合サブバンドマスクの一例を示す図である。It is a figure which shows an example of the integrated sub-band mask by which the labeling process was carried out. ラベリング処理された統合サブバンドマスクの一例を示す図である。It is a figure which shows an example of the integrated sub-band mask by which the labeling process was carried out. ゲートウェイの動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of a gateway. ゲートウェイの動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of a gateway. 複数のサブバンドの間でのコードブロックの対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of the code block between several sub bands. IoT端末の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of an IoT terminal. IoT端末の構成の一例を示す図である。It is a figure which shows an example of a structure of an IoT terminal. 動き補正部の構成の一例を示す図である。It is a figure which shows an example of a structure of a motion correction part. 動き補正部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of a motion correction part. 動き補正処理を説明するための図である。It is a figure for demonstrating a motion correction process. 階層化部の構成の一例を示す図である。It is a figure which shows an example of a structure of a hierarchy part. 動き補正部の構成の一例を示す図である。It is a figure which shows an example of a structure of a motion correction part. IoT端末の構成の一例を示す図である。It is a figure which shows an example of a structure of an IoT terminal. データ処理部の構成の一例を示す図である。It is a figure which shows an example of a structure of a data processing part. IoT端末の動作の一例を説明するための図である。It is a figure for demonstrating an example of operation | movement of an IoT terminal. IoT端末の動作の一例を説明するための図である。It is a figure for demonstrating an example of operation | movement of an IoT terminal. 画像処理システムの動作の一例を説明するための図である。It is a figure for demonstrating an example of operation | movement of an image processing system. 画像処理システムの動作の一例を説明するための図である。It is a figure for demonstrating an example of operation | movement of an image processing system. 符号化装置の構成の一例を示す図である。It is a figure which shows an example of a structure of an encoding apparatus. 復号化装置の構成の一例を示す図である。It is a figure which shows an example of a structure of a decoding apparatus. レイヤー分割処理部の構成の一例を示す図である。It is a figure which shows an example of a structure of a layer division | segmentation process part. 各サブバンドに設定された優先度の一例を示す図である。It is a figure which shows an example of the priority set to each sub-band. 係数を構成する複数のビットがビットシフトされる様子の一例を示す図である。It is a figure which shows an example of a mode that the several bit which comprises a coefficient is bit-shifted. レイヤー合成処理部の構成の一例を示す図である。It is a figure which shows an example of a structure of a layer synthetic | combination process part.

<システム概要>
図1は情報処理システム1の構成の一例を示す図である。図1に示されるように、情報処理システム1は、画像処理装置2,3を含む画像処理システム4と、情報処理装置5とを備える。画像処理装置2は、画像を示す圧縮符号化された符号化データを生成して画像処理装置3に送信する。画像処理装置3は、画像処理装置2からの符号化データに基づいて処理を行い、その処理の結果を情報処理装置5に送信する。情報処理装置5は、画像処理装置3からの情報を保存するとともに、保存した情報を使用して各種処理を行う。
<System outline>
FIG. 1 is a diagram showing an example of the configuration of the information processing system 1. As shown in FIG. 1, the information processing system 1 includes an image processing system 4 including image processing devices 2 and 3, and an information processing device 5. The image processing device 2 generates compression encoded data representing an image and transmits it to the image processing device 3. The image processing device 3 performs processing based on the encoded data from the image processing device 2, and transmits the result of the processing to the information processing device 5. The information processing device 5 stores information from the image processing device 3 and performs various processing using the stored information.

このような情報処理システム1は様々な場面で使用することができる。図2は、情報処理システム1の適用例を示す図である。図2の例では、情報処理システム1はIoT(Internet of Things)システム1として使用される。画像処理装置2、画像処理装置3及び情報処理装置5は、例えば、IoT端末2、ゲートウェイ3及びクラウドサーバ5としてそれぞれ使用される。ゲートウェイ3は、エッジゲートウェイとも呼ばれる。IoT端末2、ゲートウェイ3及びクラウドサーバ5のそれぞれは、例えば一種のコンピュータ装置である。   Such an information processing system 1 can be used in various situations. FIG. 2 is a diagram showing an application example of the information processing system 1. In the example of FIG. 2, the information processing system 1 is used as an IoT (Internet of Things) system 1. The image processing device 2, the image processing device 3 and the information processing device 5 are respectively used as, for example, the IoT terminal 2, the gateway 3 and the cloud server 5. The gateway 3 is also called an edge gateway. Each of the IoT terminal 2, the gateway 3 and the cloud server 5 is, for example, a type of computer device.

図2に示されるように、IoTシステム1は、複数のIoT端末2及びゲートウェイ3を有する画像処理システム4と、クラウドサーバ5とを備える。複数のIoT端末2はゲートウェイ3に対してローカルネットワークで接続されている。ゲートウェイ3とクラウドサーバ5とはインターネットで接続されている。IoT端末2とゲートウェイ3とは無線で接続されてもよいし、有線で接続されてもよい。IoT端末2が、ゲートウェイ3と無線通信する場合には、IoT端末2とゲートウェイ3との間の通信規格としては、例えば、ZigBee(登録商標)が採用される。IoT端末2とゲートウェイ3との間の通信規格はこれに限られない。   As shown in FIG. 2, the IoT system 1 includes an image processing system 4 having a plurality of IoT terminals 2 and a gateway 3, and a cloud server 5. The plurality of IoT terminals 2 are connected to the gateway 3 by a local network. The gateway 3 and the cloud server 5 are connected by the Internet. The IoT terminal 2 and the gateway 3 may be connected by wireless or may be connected by wire. When the IoT terminal 2 wirelessly communicates with the gateway 3, for example, ZigBee (registered trademark) is adopted as a communication standard between the IoT terminal 2 and the gateway 3. The communication standard between the IoT terminal 2 and the gateway 3 is not limited to this.

IoT端末2の処理能力は、例えば、ゲートウェイ3の処理能力よりも低くなっている。また、IoT端末2とゲートウェイ3との間のデータ伝送レートは、例えば、ゲートウェイ3とクラウドサーバ5との間のデータ伝送レートよりも低くなっている。IoT端末2とゲートウェイ3との間のデータ伝送レートは、ゲートウェイ3とクラウドサーバ5との間のデータ伝送レートの例えば数十分の一となっている。   The processing capacity of the IoT terminal 2 is, for example, lower than that of the gateway 3. Also, the data transmission rate between the IoT terminal 2 and the gateway 3 is lower than, for example, the data transmission rate between the gateway 3 and the cloud server 5. The data transmission rate between the IoT terminal 2 and the gateway 3 is, for example, several tenths of the data transmission rate between the gateway 3 and the cloud server 5.

各IoT端末2は、例えば、動画を撮影することが可能なカメラを有する。各IoT端末2は、カメラで撮影された動画のフレーム画像の少なくとも一部を示す、圧縮符号化された符号化データを生成することが可能である。また、各IoT端末2は、カメラで撮影された動画の2つのフレーム画像の差分を示す差分画像を生成することが可能である。そして、各IoT端末2は、生成した差分画像の少なくとも一部を示す、圧縮符号化された符号化データを生成することが可能である。各IoT端末2は、生成した符号化データをゲートウェイ3に送信する。以後、差分画像と言えば、2つのフレーム画像の差分を示す差分画像を意味する。   Each IoT terminal 2 has, for example, a camera capable of capturing a moving image. Each IoT terminal 2 can generate compression-coded encoded data indicating at least a part of a frame image of a moving image captured by a camera. In addition, each IoT terminal 2 can generate a difference image indicating the difference between two frame images of a moving image captured by a camera. Then, each IoT terminal 2 can generate compression-coded encoded data indicating at least a part of the generated difference image. Each IoT terminal 2 transmits the generated encoded data to the gateway 3. Hereinafter, the term “difference image” means a difference image indicating the difference between two frame images.

IoT端末2は、例えば、スマートフォン等の携帯電話機、スマートグラス等のウェアラブル機器、ネットワークカメラ、あるいはテレビ電話機などである。複数のIoT端末2は、同じ種類の機器であってもよいし、互いに異なる種類の機器であってもよい。   The IoT terminal 2 is, for example, a mobile phone such as a smartphone, a wearable device such as a smart glass, a network camera, or a television phone. The plurality of IoT terminals 2 may be the same type of device or may be different types of devices.

ゲートウェイ3は、例えば、IoT端末2からの符号化データに基づく画像に対する画像認識処理を行う。そして、ゲートウェイ3は、画像認識処理の結果を示す情報を、インターネットを通じてクラウドサーバ5に送信する。クラウドサーバ5は、ゲートウェイ3からの情報を記憶し、記憶した情報に基づいて、各種処理を実行する。ゲートウェイ3は、IoT端末2で得られた画像の少なくとも一部を示すストリーミングデータをクラウドサーバ5に送信してもよい。この場合、クラウドサーバ5は、ゲートウェイ3からのストリーミングデータを表示してもよい。あるいは、クラウドサーバ5は、画像認識処理の結果を示す情報あるいはストリーミングデータを、別のゲートウェイ3あるいはIoT端末2に対してインターネットを通じて送信してもよい。この場合、別のゲートウェイ3あるいはIoT端末2は、クラウドサーバ5から受け取った情報あるいはストリーミングデータを表示してもよい。   The gateway 3 performs, for example, an image recognition process on an image based on encoded data from the IoT terminal 2. Then, the gateway 3 transmits information indicating the result of the image recognition process to the cloud server 5 through the Internet. The cloud server 5 stores information from the gateway 3 and executes various processes based on the stored information. The gateway 3 may transmit streaming data indicating at least a part of the image obtained by the IoT terminal 2 to the cloud server 5. In this case, the cloud server 5 may display streaming data from the gateway 3. Alternatively, the cloud server 5 may transmit information indicating the result of the image recognition process or streaming data to another gateway 3 or the IoT terminal 2 through the Internet. In this case, another gateway 3 or the IoT terminal 2 may display the information or streaming data received from the cloud server 5.

IoTシステム1は、例えば、スマートホームシステムで使用することができる。この場合、複数のIoT端末2及びゲートウェイ3は家の中に設けられ、クラウドサーバ5は当該家から離れた場所に設けられる。各IoT端末2は、カメラで家の中の様子を撮影して、その様子が写る動画のフレーム画像の少なくとも一部を示す符号化データあるいは当該動画についての差分画像の少なくとも一部を示す符号化データをゲートウェイ3に送信する。ゲートウェイ3は、IoT端末2からの符号化データに基づく画像に対して画像認識処理を行って、例えば家の中の人を検出する。そして、ゲートウェイ3は、その検出結果をクラウドサーバ5に送信する。これにより、例えば、家の中の子供あるいは高齢者の見守り及び管理が可能となる。   The IoT system 1 can be used, for example, in a smart home system. In this case, the plurality of IoT terminals 2 and the gateway 3 are provided in the house, and the cloud server 5 is provided at a place away from the house. Each IoT terminal 2 captures a picture of the inside of a house with a camera, and indicates coded data indicating at least a part of a frame image of a moving picture showing the state or coding indicating at least a part of a difference image for the moving picture Send data to the gateway 3 The gateway 3 performs an image recognition process on an image based on encoded data from the IoT terminal 2 to detect, for example, a person in a house. Then, the gateway 3 transmits the detection result to the cloud server 5. This makes it possible, for example, to watch and manage the children or the elderly in the house.

またIoT端末2は、例えば、スマート工場で使用することができる。この場合、複数のIoT端末2及びゲートウェイ3は工場内に設けられ、クラウドサーバ5は当該工場から離れた場所に設けられる。各IoT端末2は、工場内の様子を撮影して、その様子が写る動画のフレーム画像の少なくとも一部を示す符号化データあるいは当該動画についての差分画像の少なくとも一部を示す符号化データをゲートウェイ3に送信する。ゲートウェイ3は、IoT端末2からの符号化データに基づく画像に対して画像認識処理を行って、例えば、荷物を配置することが可能な空きスペースを検出する。そして、ゲートウェイ3は、その検出結果をクラウドサーバ5に送信する。これにより、例えば、工場内での荷物の運搬管理が可能となる。   The IoT terminal 2 can be used, for example, in a smart factory. In this case, the plurality of IoT terminals 2 and the gateway 3 are provided in the factory, and the cloud server 5 is provided at a location distant from the factory. Each IoT terminal 2 takes a picture of the situation in the factory, and encodes the coded data indicating at least a part of the frame image of the moving image showing the situation or the encoded data indicating at least a part of the difference image for the moving image Send to 3 The gateway 3 performs an image recognition process on the image based on the encoded data from the IoT terminal 2 to detect, for example, an empty space where a package can be placed. Then, the gateway 3 transmits the detection result to the cloud server 5. This makes it possible, for example, to manage the transport of luggage within the factory.

なお、IoTシステム1が使用される場面は上記の限りではない。またIoT端末2は、それとは別体のカメラから画像データを受け取ってもよい。またIoT端末2で扱われる画像は、カメラで撮影された画像だけではなく、アニメーション画像であってもよい。   The scene where the IoT system 1 is used is not limited to the above. The IoT terminal 2 may also receive image data from a separate camera. Further, the image handled by the IoT terminal 2 may be not only an image captured by a camera but also an animation image.

以下では、情報処理システム1がIoTシステム1である場合を例に挙げて、情報処理システム1について詳細に説明する。   Hereinafter, the information processing system 1 will be described in detail by taking the case where the information processing system 1 is the IoT system 1 as an example.

<IoT端末の構成>
図3はIoT端末2の構成の一例を示す図である。図3に示されるように、IoT端末2は、カメラ20、画像メモリ21、階層化部22、差分生成部23、符号化装置24、通信部25、決定部26及び座標メモリ27等で構成される回路構成を備える。IoT端末2は、例えば電池駆動型の端末であって、当該IoT端末2の電源を出力する電池を備える。
<Configuration of IoT terminal>
FIG. 3 is a diagram showing an example of the configuration of the IoT terminal 2. As shown in FIG. 3, the IoT terminal 2 includes a camera 20, an image memory 21, a layering unit 22, a difference generation unit 23, an encoding device 24, a communication unit 25, a determination unit 26, a coordinate memory 27, and the like. Circuit configuration. The IoT terminal 2 is, for example, a battery-driven terminal, and includes a battery that outputs power of the IoT terminal 2.

カメラ20は、動画を撮影し、撮影する動画のフレーム画像を示す画像データ500を出力する。画像データ500は複数の画素値で構成されている。カメラ20は、フレーム画像を撮影するたびに、撮影したフレーム画像を示す画像データ500を順次出力する。本例では、カメラ20の位置は固定されている。以後、画像データ500をフレーム画像データ500と呼ぶことがある。   The camera 20 captures a moving image and outputs image data 500 indicating a frame image of the moving image to be captured. The image data 500 is composed of a plurality of pixel values. Each time the camera 20 captures a frame image, the camera 20 sequentially outputs image data 500 indicating the captured frame image. In this example, the position of the camera 20 is fixed. Hereinafter, the image data 500 may be referred to as frame image data 500.

画像メモリ21は、カメラ20から出力される画像データ500を記憶する。画像メモリ21はカメラ20で撮影されるフレーム画像を記憶するとも言える。   The image memory 21 stores image data 500 output from the camera 20. It can also be said that the image memory 21 stores frame images taken by the camera 20.

階層化部22は、画像メモリ21内の画像データ500を階層化し、それよって得られた階層化データ501を出力する。階層化データ501は、フレーム画像を示すデータであるとも言える。階層化部22は、例えば、画像データ500に対してウェーブレット変換(詳細には離散ウェーブレット変換)を実行して、画像データ500を階層化する。階層化部22は、例えば、JPEG(Joint Photographic Experts Group)2000で採用されている圧縮符号化でのウェーブレット変換と同様にして、画像データ500に対してウェーブレット変換を行う。階層化部22の少なくとも一部は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてよい。また、階層化部22の少なくとも一部は、コンピュータがプログラムを実行することによって実現される機能ブロックであってもよい。以後、ウェーブレットをWTと表すことがある。   The hierarchization unit 22 hierarchizes the image data 500 in the image memory 21 and outputs hierarchized data 501 obtained thereby. It can be said that the hierarchical data 501 is data indicating a frame image. The layering unit 22 performs, for example, wavelet transform (more specifically, discrete wavelet transform) on the image data 500 to layer the image data 500. The layering unit 22 performs wavelet transformation on the image data 500 in the same manner as, for example, wavelet transformation in compression encoding adopted in JPEG (Joint Photographic Experts Group) 2000. At least a part of the layering unit 22 may be realized by a hardware circuit that does not require software to realize its function. In addition, at least a part of the layering unit 22 may be a functional block realized by the computer executing a program. Hereinafter, the wavelet may be denoted as WT.

差分生成部23は、2つのフレーム画像についての階層化データ501の差分を示す差分階層化データ502を生成して出力する。差分生成部23は、階層化部22から出力される階層化データ501を記憶することができる。差分生成部23は、階層化部22から階層化データ501が出力されると、その階層化データ501と、すでに記憶している階層化データ501との差分を示す差分階層化データ502を生成する。これにより、カメラ20において互いに異なるタイミングで撮影された2つのフレーム画像についての階層化データ501の差分を示す差分階層化データ502が生成される。2つのフレーム画像についての階層化データ501の差分を示す差分階層化データ502は、当該2つのフレーム画像の差分を示す差分画像を示す、階層化された階層化データであると言える。差分生成部23の少なくとも一部は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてよい。また、差分生成部23の少なくとも一部は、コンピュータがプログラムを実行することによって実現される機能ブロックであってもよい。   The difference generation unit 23 generates and outputs difference hierarchical data 502 indicating the difference between the hierarchical data 501 for two frame images. The difference generation unit 23 can store the hierarchical data 501 output from the hierarchical unit 22. When the hierarchical data 501 is output from the hierarchical unit 22, the difference generation unit 23 generates differential hierarchical data 502 indicating the difference between the hierarchical data 501 and the hierarchical data 501 already stored. . As a result, difference hierarchical data 502 indicating the difference between the hierarchical data 501 of two frame images captured at different timings in the camera 20 is generated. It can be said that difference layered data 502 which shows the difference of layered data 501 about two frame pictures is hierarchized layered data which shows a difference picture which shows a difference of the two frame pictures concerned. At least a part of the difference generation unit 23 may be realized by a hardware circuit which does not require software for realizing the function. In addition, at least a part of the difference generation unit 23 may be a functional block realized by the computer executing a program.

以後、階層化データ501を非差分階層化データ501と呼ぶことがある。また、非差分階層化データ501と差分階層化データ502を総称して、符号を用いずに単に階層化データと呼ぶ。   Hereinafter, the hierarchical data 501 may be referred to as non-differential hierarchical data 501. Also, the non-difference hierarchical data 501 and the difference hierarchical data 502 are collectively referred to simply as hierarchical data without using a code.

決定部26は、差分階層化データ502から、所定の基準に基づいて、送信対象データ503を決定する。本例では、所定の基準としては、IoT端末2での処理の結果と、ゲートウェイ3から送信される指示情報520とが使用される。IoT端末2での処理の結果として、例えば、後述するマスク生成部で生成される統合マスクデータが使用される。   The determination unit 26 determines transmission target data 503 from the difference hierarchical data 502 based on a predetermined standard. In this example, the result of the process in the IoT terminal 2 and the instruction information 520 transmitted from the gateway 3 are used as the predetermined reference. As a result of processing in the IoT terminal 2, for example, integrated mask data generated by a mask generation unit described later is used.

決定部26は、統合マスクデータ及び指示情報520に基づいて、差分階層化データ502から送信対象データ503を決定する。決定部26は、ゲートウェイ3からの新たな指示情報520を受け取ると、その新たな指示情報520に基づいて送信対象データ503を決定する。決定部26は、差分階層化データ502から決定した送信対象データ503を符号化装置24に入力する。   The determination unit 26 determines transmission target data 503 from the difference hierarchical data 502 based on the integrated mask data and the instruction information 520. When the determination unit 26 receives the new instruction information 520 from the gateway 3, the determination unit 26 determines the transmission target data 503 based on the new instruction information 520. The determination unit 26 inputs the transmission target data 503 determined from the difference hierarchical data 502 to the encoding device 24.

また決定部26は、非差分階層化データ501から送信対象データ503を決定することも可能である。決定部26は、非差分階層化データ501から決定した送信対象データ503を符号化装置24に入力する。   The determination unit 26 can also determine the transmission target data 503 from the non-difference layered data 501. The determination unit 26 inputs the transmission target data 503 determined from the non-difference layered data 501 to the encoding device 24.

また決定部26は、決定した送信対象データ503に関する座標データ504を生成して出力する。座標データ504については後で詳細に説明する。決定部26の少なくとも一部は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてよい。また、決定部26の少なくとも一部は、コンピュータがプログラムを実行することによって実現される機能ブロックであってもよい。   Further, the determination unit 26 generates and outputs coordinate data 504 related to the determined transmission target data 503. The coordinate data 504 will be described in detail later. At least a part of the determination unit 26 may be realized by a hardware circuit which does not require software for realizing the function. In addition, at least a part of the determination unit 26 may be a functional block realized by the computer executing a program.

符号化装置24は、入力される送信対象データ503を圧縮符号化して符号化データ505を生成する。そして、符号化装置24は、生成した符号化データ505を含むビットストリーム506を生成して出力する。決定部26が決定した送信対象データ503は符号化装置24で圧縮符号化されることから、決定部26は、圧縮符号化する対象のデータを決定する処理を行うとも言える。符号化装置24の少なくとも一部は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてよい。また、符号化装置24の少なくとも一部は、コンピュータがプログラムを実行することによって実現される機能ブロックであってもよい。   The encoding device 24 compresses and encodes the input transmission target data 503 to generate encoded data 505. Then, the encoding device 24 generates and outputs a bit stream 506 including the generated encoded data 505. Since the transmission target data 503 determined by the determination unit 26 is compressed and encoded by the encoding device 24, it can be said that the determination unit 26 performs a process of determining data to be compressed and encoded. At least a part of the encoding device 24 may be implemented by a hardware circuit that does not require software to implement its function. In addition, at least a part of the encoding device 24 may be a functional block realized by a computer executing a program.

以後、差分階層化データ502から決定された送信対象データ503を圧縮符号化することによって生成された符号化データ505を符号化差分データ505と呼ぶことがある。また、非差分階層化データ501から決定された送信対象データ503を圧縮符号化することによって生成された符号化データ505を符号化非差分データ505と呼ぶことがある。   Hereinafter, the encoded data 505 generated by compressing and encoding the transmission target data 503 determined from the difference layered data 502 may be referred to as encoded difference data 505. Also, encoded data 505 generated by compression encoding the transmission target data 503 determined from the non-differential layered data 501 may be referred to as encoded non-differential data 505.

座標メモリ27は、座標データ504が登録される座標テーブル27aを記憶している。座標メモリ27は、決定部26から出力される座標データ504を、座標テーブル27aに登録する。   The coordinate memory 27 stores a coordinate table 27a in which coordinate data 504 is registered. The coordinate memory 27 registers the coordinate data 504 output from the determination unit 26 in the coordinate table 27 a.

通信部25は、ゲートウェイ3と通信を行う通信回路である。通信部25は、例えばZigBeeに準拠してゲートウェイ3と無線通信を行う。通信部25の通信方式はこれに限られない。通信部25は、ゲートウェイ3からの信号を受信する受信部25bと、ゲートウェイ3に信号を送信する送信部25aとを備える。送信部25aは、符号化装置24で生成されるビットストリーム506をゲートウェイ3に送信する。また送信部25aは、決定部26から出力される座標データ504をゲートウェイ3に送信する。受信部25bは、ゲートウェイ3が送信する指示情報520を受信し、受信した指示情報520を決定部26に出力する。   The communication unit 25 is a communication circuit that communicates with the gateway 3. The communication unit 25 performs wireless communication with the gateway 3 in accordance with ZigBee, for example. The communication method of the communication unit 25 is not limited to this. The communication unit 25 includes a receiving unit 25 b that receives a signal from the gateway 3 and a transmitting unit 25 a that transmits a signal to the gateway 3. The transmitting unit 25 a transmits the bit stream 506 generated by the encoding device 24 to the gateway 3. The transmitting unit 25 a also transmits the coordinate data 504 output from the determining unit 26 to the gateway 3. The receiving unit 25 b receives the instruction information 520 transmitted by the gateway 3, and outputs the received instruction information 520 to the determining unit 26.

なおIoT端末2は、カメラ20を備えていなくてもよい。この場合、画像メモリ21には、IoT端末2とは別体のカメラから出力される画像データ(実写画像を示す画像データ)が入力されてよいし、アニメーション画像を示す画像データが入力されてよい。   The IoT terminal 2 may not have the camera 20. In this case, image data (image data indicating a photographed image) output from a camera separate from the IoT terminal 2 may be input to the image memory 21, or image data indicating an animation image may be input. .

また、画像メモリ21及び座標メモリ27は、互いに独立した別々のメモリであってもよいし、一つのメモリの記憶領域の一部が画像メモリ21として使用され、当該記憶領域の他の部分が座標メモリ27として使用されてもよい。   The image memory 21 and the coordinate memory 27 may be separate memories independent of each other, or a part of the storage area of one memory is used as the image memory 21 and the other part of the storage area is a coordinate. The memory 27 may be used.

<ゲートウェイの構成>
図4はゲートウェイ3の構成の一例を示す図である。図4に示されるように、ゲートウェイ3は、通信部30、復号化装置31、データ処理部32、画像認識部33、トランスコーダ34、通信部35及び座標メモリ36等で構成される回路構成を備える。ゲートウェイ3は、例えば商用電源を電源として動作を行う。ゲートウェイ3では、復号化装置31、データ処理部32、画像認識部33及びトランスコーダ34によって、IoT端末2からの符号化データに基づいて所定の処理を行う処理部が構成される。
<Configuration of gateway>
FIG. 4 is a diagram showing an example of the configuration of the gateway 3. As shown in FIG. 4, the gateway 3 has a circuit configuration including a communication unit 30, a decoding device 31, a data processing unit 32, an image recognition unit 33, a transcoder 34, a communication unit 35, a coordinate memory 36, and the like. Prepare. The gateway 3 operates using, for example, a commercial power supply as a power supply. In the gateway 3, the decoding device 31, the data processing unit 32, the image recognition unit 33, and the transcoder 34 constitute a processing unit that performs predetermined processing based on the encoded data from the IoT terminal 2.

通信部30は、IoT端末2と通信を行う通信回路である。通信部30は、IoT端末2からの信号を受信する受信部30aと、IoT端末2に信号を送信する送信部30bとを備える。受信部30aは、IoT端末2から送信されるビットストリーム506及び座標データ504を受信する。送信部30bは、IoT端末2が送信すべきデータを当該IoT端末2に指示するための指示情報520を、IoT端末2に送信する。指示情報520はデータ処理部32で生成される。   The communication unit 30 is a communication circuit that communicates with the IoT terminal 2. The communication unit 30 includes a receiving unit 30 a that receives a signal from the IoT terminal 2 and a transmitting unit 30 b that transmits a signal to the IoT terminal 2. The receiving unit 30 a receives the bit stream 506 and the coordinate data 504 transmitted from the IoT terminal 2. The transmitting unit 30 b transmits, to the IoT terminal 2, instruction information 520 for instructing the IoT terminal 2 to transmit data to be transmitted by the IoT terminal 2. The instruction information 520 is generated by the data processing unit 32.

座標メモリ36は、IoT端末2からの座標データ504が登録される座標テーブル36aを記憶する。座標メモリ36は、受信部30aで受信される座標データ504を座標テーブル36aに登録する。   The coordinate memory 36 stores a coordinate table 36 a in which coordinate data 504 from the IoT terminal 2 is registered. The coordinate memory 36 registers the coordinate data 504 received by the receiving unit 30 a in the coordinate table 36 a.

復号化装置31は、受信部30aが受信するビットストリーム506から符号化データ505を抽出する。復号化装置31は、抽出した符号化データ505をデータ処理部32に出力する。また復号化装置31は、抽出した符号化データ505を伸張復号化して復号化データ521を生成する。この復号化データ521は、ウェーブレット逆変換(詳細には離散ウェーブレット逆変換)されていないデータである。つまり、復号化データ521は、それが符号化差分データ505を伸張復号化したものである場合には、IoT端末2で生成される差分階層化データ502(WT変換されたデータ)の少なくとも一部を復元したものである。また、復号化データ521は、それが符号化非差分データ505を伸張復号化したものである場合には、IoT端末2で生成される非差分階層化データ501(WT変換されたデータ)の少なくとも一部を復元したものである。復号化装置31は、受信部30aが新たなビットストリーム506を受信すると、その新たなビットストリーム506に含まれる符号化データ505を伸張復号化して復号化データ521を生成する。復号化装置31の少なくとも一部は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてよい。また、復号化装置31の少なくとも一部は、コンピュータがプログラムを実行することによって実現される機能ブロックであってもよい。   The decoding device 31 extracts the coded data 505 from the bit stream 506 received by the receiving unit 30a. The decoding device 31 outputs the extracted encoded data 505 to the data processing unit 32. Also, the decoding device 31 decompresses and decodes the extracted encoded data 505 to generate decoded data 521. This decoded data 521 is data that has not been wavelet inverse transformed (more specifically, discrete wavelet inverse transformation). That is, when the decoded data 521 is obtained by expanding and decoding the coded difference data 505, at least a part of the difference layered data 502 (WT converted data) generated by the IoT terminal 2 Is restored. Further, when the decoded data 521 is obtained by expanding and decoding the encoded non-differential data 505, at least at least the non-differential layered data 501 (WT converted data) generated by the IoT terminal 2 It is a partial restoration. When the receiving unit 30 a receives a new bitstream 506, the decoding device 31 decompresses and decodes the encoded data 505 included in the new bitstream 506 to generate decoded data 521. At least a part of the decoding device 31 may be realized by a hardware circuit that does not require software to realize its function. In addition, at least a part of the decryption device 31 may be a functional block realized by the computer executing a program.

以後、符号化差分データ505を伸張復号化して得られる復号化データ521を復号化差分データ521と呼ぶことがある。また、符号化非差分データ505を伸張復号化して得られる復号化データ521を復号化非差分データ521と呼ぶことがある。   Hereinafter, the decoded data 521 obtained by expanding and decoding the coded differential data 505 may be referred to as decoded differential data 521. Also, decoded data 521 obtained by expanding and decoding the encoded non-difference data 505 may be referred to as decoded non-difference data 521.

データ処理部32は、復号化装置31で生成される復号化非差分データ521を後述の第1メモリに記憶する。またデータ処理部32は、復号化装置31で生成される復号化差分データ521から、当該復号化差分データ521に対応する、非差分階層化データ501に含まれるデータを復元して第1メモリに記憶する。またデータ処理部32は、復号化装置31からの符号化データ505を後述する第2メモリに記憶する。   The data processing unit 32 stores the decoded non-differential data 521 generated by the decoding device 31 in a first memory described later. Further, the data processing unit 32 restores the data included in the non-difference layered data 501 corresponding to the decoded difference data 521 from the decoded difference data 521 generated by the decoding device 31 to the first memory. Remember. The data processing unit 32 also stores the encoded data 505 from the decoding device 31 in a second memory described later.

画像認識部33は、データ処理部32が生成する認識用データ522が示す認識対象画像に対して画像認識処理を行う。画像認識部33は、画像認識処理において、認識対象画像から、人全体あるいは人の顔等の検出対象物を検出する。なお、検出対象物はこの限りではない。画像認識部33は、データ処理部32で使用される、画像認識処理の結果を示す認識結果情報523を生成する。また画像認識部33は、ゲートウェイ3からクラウドサーバ5に送信される、画像認識処理の結果を示す認識結果情報524を、通信部35に出力する。   The image recognition unit 33 performs an image recognition process on the recognition target image indicated by the recognition data 522 generated by the data processing unit 32. The image recognition unit 33 detects an object to be detected such as a whole person or a human face from the recognition target image in the image recognition process. The object to be detected is not limited to this. The image recognition unit 33 generates recognition result information 523 that is used by the data processing unit 32 and indicates the result of the image recognition process. Further, the image recognition unit 33 outputs, to the communication unit 35, recognition result information 524 transmitted from the gateway 3 to the cloud server 5 and indicating the result of the image recognition processing.

データ処理部32は、第1メモリ内のデータに基づいて、画像認識部33で使用される認識用データ522を生成する。データ処理部32は、画像認識部33で生成される認識結果情報523に基づいて、トランスコーダ34で使用されるマスクデータ525を生成する。マスクデータ525は、第1メモリ内のデータに基づく画像におけるROI(関心領域)を特定するためのマスクデータである。言い換えれば、マスクデータ525は、IoT端末2から送信される符号化データ505に基づく画像におけるROIを特定するためのマスクデータである。データ処理部32は、認識結果情報523等に基づいて指示情報520を生成する。   The data processing unit 32 generates recognition data 522 used by the image recognition unit 33 based on the data in the first memory. The data processing unit 32 generates mask data 525 used by the transcoder 34 based on the recognition result information 523 generated by the image recognition unit 33. The mask data 525 is mask data for specifying an ROI (region of interest) in an image based on data in the first memory. In other words, the mask data 525 is mask data for specifying an ROI in an image based on the encoded data 505 transmitted from the IoT terminal 2. The data processing unit 32 generates the instruction information 520 based on the recognition result information 523 and the like.

またデータ処理部32は、第1メモリ内のデータに基づいて、トランスコーダ34で使用されるトランスコーダ用復号化データ526を生成して出力する。またデータ処理部32は、第2メモリ内のデータに基づいて、トランスコーダ34で使用されるトランスコーダ用符号化データ527を生成して出力する。   The data processing unit 32 also generates and outputs transcoder decoded data 526 to be used by the transcoder 34 based on the data in the first memory. The data processing unit 32 also generates and outputs transcoder encoded data 527 used by the transcoder 34 based on the data in the second memory.

トランスコーダ34は、データ処理部32で生成されるマスクデータ525に基づいて、トランスコーダ用復号化データ526が示す画像からROIを特定し、特定したROIを示す、圧縮符号化されたデータを符号化データとして生成する。ゲートウェイ3は、マスクデータ525を変更することによって、様々な形状のROIを示す符号化データを生成することができる。トランスコーダ34は、生成した符号化データを含むビットストリーム529を生成して出力する。またトランスコーダ34は、トランスコーダ用符号化データ527を含むビットストリーム529を生成して出力する。   The transcoder 34 identifies an ROI from the image indicated by the transcoder decoded data 526 based on the mask data 525 generated by the data processing unit 32, and encodes the compressed and encoded data indicating the identified ROI. Generate as data. The gateway 3 can generate coded data indicating ROIs of various shapes by changing the mask data 525. The transcoder 34 generates and outputs a bit stream 529 including the generated encoded data. In addition, the transcoder 34 generates and outputs a bit stream 529 including transcoder encoded data 527.

通信部35は、クラウドサーバ5と通信を行う通信回路である。通信部35は、トランスコーダ34から出力されるビットストリーム529をクラウドサーバ5に送信する。また通信部35は、画像認識部33から出力される認識結果情報524をメタデータとしてクラウドサーバ5に送信する。なお、ゲートウェイ3は、認識結果情報524を圧縮符号化し、それによって得られた符号化データをクラウドサーバ5に送信してもよい。   The communication unit 35 is a communication circuit that communicates with the cloud server 5. The communication unit 35 transmits the bit stream 529 output from the transcoder 34 to the cloud server 5. The communication unit 35 also transmits the recognition result information 524 output from the image recognition unit 33 to the cloud server 5 as metadata. The gateway 3 may compress and encode the recognition result information 524 and transmit encoded data obtained thereby to the cloud server 5.

クラウドサーバ5は、ゲートウェイ3から受け取ったビットストリーム529に含まれる符号化データを伸張復号化し、それによって得られた復号化データ(画像データ)を記憶する。また、クラウドサーバ5は、ゲートウェイ3からのメタデータを記憶する。そして、クラウドサーバ5は、記憶している復号化データ及びメタデータに基づいて、画像検索あるいは画像解析等を行う。   The cloud server 5 decompresses and decodes the encoded data included in the bit stream 529 received from the gateway 3 and stores the decoded data (image data) obtained thereby. Also, the cloud server 5 stores metadata from the gateway 3. Then, the cloud server 5 performs image search or image analysis based on the stored decoded data and metadata.

以上のように、本例に係るIoTシステム1では、IoT端末2が、画像を示す階層化データ(フレーム画像を示す非差分階層化データ501及び差分画像を示す差分階層化データ502)を生成し、生成した階層化データから、所定の基準に基づいて送信対象データ503を決定する。そして、IoT端末2は、決定した送信対象データ503を圧縮符号化し、それによって得られた符号化データ505をゲートウェイ3に送信する。これにより、画像を示す階層化データのすべてが圧縮符号化され、それによって得られた符号化データがIoT端末2から送信される場合と比較して、IoT端末2の消費電力を低減することができる。また、IoT端末2とゲートウェイ3との間のデータ伝送レートが低い場合であっても、IoT端末2から送信される符号化データの送信遅延を低減することができる。   As described above, in the IoT system 1 according to this example, the IoT terminal 2 generates hierarchical data (non-differential hierarchical data 501 indicating a frame image and differential hierarchical data 502 indicating a differential image) indicating an image. From the generated hierarchical data, transmission target data 503 is determined based on a predetermined standard. Then, the IoT terminal 2 compresses and encodes the determined transmission target data 503, and transmits the encoded data 505 obtained thereby to the gateway 3. As a result, the power consumption of the IoT terminal 2 can be reduced compared to the case where all the hierarchical data representing the image are compression-coded and the encoded data obtained thereby is transmitted from the IoT terminal 2 it can. Further, even when the data transmission rate between the IoT terminal 2 and the gateway 3 is low, the transmission delay of the encoded data transmitted from the IoT terminal 2 can be reduced.

また、差分階層化データ502のデータ量は、非差分階層化データ501のデータ量よりも小さくすることができる。したがって、IoT端末2が、差分階層化データ502から送信対象データ503を決定することによって、IoT端末2が送信するデータ量を低減することができる。よって、IoT端末2の消費電力をさらに低減することができる。また、IoT端末2から送信される符号化データの送信遅延をさらに低減することができる。   In addition, the data amount of the difference hierarchical data 502 can be smaller than the data amount of the non-difference hierarchical data 501. Therefore, the IoT terminal 2 can reduce the amount of data to be transmitted by the IoT terminal 2 by determining the transmission target data 503 from the differential layered data 502. Therefore, the power consumption of the IoT terminal 2 can be further reduced. Moreover, the transmission delay of the coding data transmitted from the IoT terminal 2 can be further reduced.

<IoT端末の詳細説明>
<階層化部の詳細説明>
図5はIoT端末2の階層化部22の構成の一例を示す図である。図5に示されるように、階層化部22は、DCレベルシフト部221、色空間変換部222、タイリング部223、ウェーブレット変換部224(WT変換部224)及び量子化部225を備えている。
<Detailed explanation of IoT terminal>
<Detailed Description of Layering Unit>
FIG. 5 is a diagram showing an example of the configuration of the layering unit 22 of the IoT terminal 2. As shown in FIG. 5, the layering unit 22 includes a DC level shift unit 221, a color space conversion unit 222, a tiling unit 223, a wavelet conversion unit 224 (WT conversion unit 224), and a quantization unit 225. .

DCレベルシフト部221は、フレーム画像データ500のDCレベルを必要に応じて変換する。色空間変換部222は、DCレベル変換後のフレーム画像データ500の色空間を変換する。例えば、RGB成分がYCbCr成分(輝度成分Yと色差成分Cb,Crとから成る)に変換される。タイリング部223は、色空間変換後のフレーム画像データ500を、タイルと呼ばれる矩形状の複数の領域成分に分割する。そして、タイリング部223は、フレーム画像データ500をタイルごとにウェーブレット変換部224に入力する。なお、必ずしもフレーム画像データ500をタイルに分割する必要はなく、色空間変換部222から出力されたフレーム画像データ500を、そのままウェーブレット変換部224に入力してもよい。   The DC level shift unit 221 converts the DC level of the frame image data 500 as needed. The color space conversion unit 222 converts the color space of the frame image data 500 after DC level conversion. For example, RGB components are converted to YCbCr components (composed of a luminance component Y and color difference components Cb and Cr). The tiling unit 223 divides the frame image data 500 after color space conversion into a plurality of rectangular area components called tiles. Then, the tiling unit 223 inputs the frame image data 500 to the wavelet transform unit 224 for each tile. The frame image data 500 need not necessarily be divided into tiles, and the frame image data 500 output from the color space converter 222 may be input to the wavelet converter 224 as it is.

ウェーブレット変換部224は、タイリング部223で処理されたフレーム画像データ500に対してウェーブレット変換を行って階層化データ510を生成する。そして、量子化部225は、階層化データ510を量子化して出力する。階層化部22は、量子化された階層化データ510を階層化データ501として出力する。   The wavelet transform unit 224 subjects the frame image data 500 processed by the tiling unit 223 to wavelet transform to generate hierarchical data 510. Then, the quantization unit 225 quantizes and outputs the hierarchical data 510. The hierarchization unit 22 outputs the quantized hierarchized data 510 as the hierarchized data 501.

<ウェーブレット変換部>
ウェーブレット変換部224は、入力されるフレーム画像データ500に対して、整数型または実数型の離散ウェーブレット変換(DWT)を行い、その結果得られた複数の変換係数を出力する。以下では、変換係数をウェーブレット係数と呼ぶことがある。また、フレーム画像データ500に対してウェーブレット変換を行うことによって生成されるデータ(ウェーブレット係数の群)を、第1ウェーブレット係数データと呼ぶことがある。ウェーブレット変換部224は、生成した第1ウェーブレット係数データを、フレーム画像を示す階層化データ510として出力する。
Wavelet Transform Unit
The wavelet transform unit 224 performs integer or real discrete wavelet transform (DWT) on the input frame image data 500, and outputs a plurality of transform coefficients obtained as a result. The transform coefficients may be referred to as wavelet coefficients below. Also, data (a group of wavelet coefficients) generated by performing wavelet transform on the frame image data 500 may be referred to as first wavelet coefficient data. The wavelet transform unit 224 outputs the generated first wavelet coefficient data as hierarchical data 510 indicating a frame image.

ウェーブレット変換では、2次元画像データが高域成分(換言すれば高周波成分)と低域成分(換言すれば低周波成分)とに分解される。この周波数分解は例えば帯域分割とも呼ばれる。また、周波数分解によって得られた各帯域成分(すなわち低域成分と高域成分のそれぞれ)はサブバンドとも呼ばれる。ここでは、JPEG2000の基本方式に倣い、垂直方向と水平方向の両方について低域側に分割されたサブバンドのみを再帰的に帯域分割していく、オクターブ分割方式を採用するものとする。再帰的な帯域分割を行った回数は、分解レベルと呼ばれる。分解レベルの情報は、第1ウェーブレット係数データに付随している。   In wavelet transformation, two-dimensional image data is decomposed into high frequency components (in other words, high frequency components) and low frequency components (in other words, low frequency components). This frequency resolution is also called, for example, band division. In addition, each band component (that is, each of the low band component and the high band component) obtained by frequency decomposition is also called a sub-band. Here, in accordance with the basic scheme of JPEG 2000, an octave division scheme is adopted in which only the subbands divided to the low frequency side in both the vertical direction and the horizontal direction are recursively divided into bands. The number of times of recursive band division is called decomposition level. The decomposition level information is associated with the first wavelet coefficient data.

ウェーブレット変換部224では、所定の分解レベルまでフレーム画像データ500が分解される。一般的には分解レベルが3〜5程度の場合に、良好な符号化効率が得られる。なお、ウェーブレット変換部224における上記所定の分解レベルを、最大分解レベルと呼ぶ場合もある。本例では、最大分解レベルは3に設定されている。   The wavelet transform unit 224 decomposes the frame image data 500 to a predetermined decomposition level. In general, good coding efficiency is obtained when the decomposition level is about 3 to 5. The predetermined decomposition level in the wavelet transform unit 224 may be referred to as a maximum decomposition level. In this example, the maximum decomposition level is set to three.

図6〜8に、2次元でのウェーブレット変換について、Mallat型のウェーブレット平面551〜553を示す。図6〜8の例によれば、入力画像(2次元画像)は、分解レベル1において(図6参照)、垂直方向と水平方向のそれぞれについて周波数分解が行われる。これにより、図6のウェーブレット平面551に示すように、4つのサブバンドHH1,HL1,LH1,LL1に分解される。分解レベル1で得られたサブバンドLL1は、分解レベル2において(図7のウェーブレット平面552を参照)、さらに4つのサブバンドHH2,HL2,LH2,LL2に分解される。分解レベル2で得られたサブバンドLL2は、分解レベル3において(図8のウェーブレット平面553を参照)、さらに4つのサブバンドHH3,HL3,LH3,LL3に分解される。   6 to 8 show Mallat-type wavelet planes 551 to 553 for wavelet transform in two dimensions. According to the example of FIGS. 6-8, the input image (two-dimensional image) is subjected to frequency decomposition in the vertical direction and the horizontal direction at the decomposition level 1 (see FIG. 6). Thereby, as shown in the wavelet plane 551 of FIG. 6, the signal is decomposed into four sub-bands HH1, HL1, LH1, and LL1. The subband LL1 obtained at decomposition level 1 is further decomposed into four subbands HH2, HL2, LH2, LL2 at decomposition level 2 (see wavelet plane 552 in FIG. 7). The subband LL2 obtained at decomposition level 2 is further decomposed into four subbands HH3, HL3, LH3 and LL3 at decomposition level 3 (see the wavelet plane 553 in FIG. 8).

2次元のウェーブレット変換に関する表記について、例えばHL1は、分解レベル1における水平方向の高域成分Hと垂直方向の低域成分Lとからなるサブバンドである。その表記法はXYmと一般化される(XおよびYはそれぞれH,Lのいずれか。mは1以上の整数)。すなわち、分解レベルmにおける水平方向のサブバンドXと垂直方向のサブバンドYとからなるサブバンドはXYmと表記される。また、分解レベルを特定しない場合には、水平方向のサブバンドXと垂直方向のサブバンドYとからなるサブバンドはXYと表記される。   Regarding the notation relating to the two-dimensional wavelet transform, for example, HL1 is a sub-band composed of a high frequency component H in the horizontal direction and a low frequency component L in the vertical direction at the decomposition level 1. The notation is generalized as XYm (X and Y are either H or L, respectively, and m is an integer of 1 or more). That is, the sub-band consisting of the sub-band X in the horizontal direction and the sub-band Y in the vertical direction at the decomposition level m is denoted as XYm. Further, when the decomposition level is not specified, a sub-band consisting of the sub-band X in the horizontal direction and the sub-band Y in the vertical direction is denoted as XY.

なお以下では、サブバンドLL1,LL2,・・・のそれぞれをLLサブバンドと略称する場合がある。また、サブバンドLL1をLL1サブバンドと呼ぶ場合がある。他のサブバンドについても同様である。   In the following, each of the subbands LL1, LL2,... May be abbreviated as LL subband. Also, the subband LL1 may be referred to as the LL1 subband. The same is true for the other subbands.

ここで、ウェーブレット平面(図6〜8参照)は、ウェーブレット変換の演算結果データを、原画像(ウェーブレット変換が行われていない状態の画像)中の画素の並びに対応付けて2次元配列したデータ群である。例えばウェーブレット平面においてサブバンドLL1として示されている領域内には、原画像中のある画素を注目画素として得られた演算結果データが、原画像中での当該注目画素の位置に対応して並べられている。ウェーブレット係数は画素に対応する値であると言える。   Here, a wavelet plane (see FIGS. 6 to 8) is a data group in which calculation result data of wavelet transform are two-dimensionally arranged in correspondence with an array of pixels in an original image (image in a state where wavelet transform is not performed). It is. For example, in the region shown as sub-band LL1 in the wavelet plane, the operation result data obtained with a certain pixel in the original image as the target pixel is arranged corresponding to the position of the target pixel in the original image. It is done. The wavelet coefficient can be said to be a value corresponding to a pixel.

なおウェーブレット平面は、ウェーブレット空間またはウェーブレット領域と呼ばれる場合もある。また、2次元配列された係数を画素値に見立てて、ウェーブレット平面をウェーブレット画像と呼び、サブバンドをサブバンド画像と呼び、XYmサブバンドをXYmサブバンド画像と呼び、XYサブバンドをXYサブバンド画像と呼ぶ場合もある。   The wavelet plane may also be called wavelet space or wavelet domain. Also, assuming the two-dimensionally arrayed coefficients as pixel values, the wavelet plane is called a wavelet image, the subbands are called subband images, the XYm subbands are called XYm subband images, and the XY subbands are XY subbands. Sometimes called an image.

分解レベル1において、サブバンドLL1は画像の本質的な情報に対応する。サブバンドLL1によれば、分解前の画像の1/4のサイズの画像(換言すれば、分解前の画像に対する縮小比が1/2の画像)を提供可能である。サブバンドHL1は垂直方向に伸びるエッジの情報に対応し、サブバンドLH1は水平方向に伸びるエッジの情報に対応する。サブバンドHHは斜め方向に伸びるエッジの情報に対応する。これらの点は他の分解レベルについても同様である。例えば、分解レベル2のサブバンドLL2,HL2,LH2,HH2は、分解前のサブバンドLL1を原画像と見なした場合におけるサブバンドLL1,HL1,LH1,HH1とそれぞれ同様の関係にある。   At decomposition level 1, subband LL1 corresponds to the essential information of the image. According to the subband LL1, it is possible to provide an image of 1⁄4 the size of the image before decomposition (in other words, an image with a reduction ratio of 1⁄2 to the image before decomposition). The subband HL1 corresponds to the information of the vertically extending edge, and the subband LH1 corresponds to the information of the horizontally extending edge. The sub-band HH corresponds to the information of the diagonally extending edge. These points are the same for other decomposition levels. For example, the subbands LL2, HL2, LH2, and HH2 at decomposition level 2 are in the same relationship as the subbands LL1, HL1, LH1, and HH1 when the subband LL1 before decomposition is regarded as the original image.

以下では、ウェーブレット変換が行われていない状態の原画像を分解レベル0に対応させることにより、当該原画像を分解レベル0のウェーブレット画像または分解レベル0のウェーブレット平面と表現する場合もある。   In the following, the original image may be expressed as a wavelet image at decomposition level 0 or a wavelet plane at decomposition level 0 by making the original image in a state in which wavelet transformation is not performed correspond to decomposition level 0.

図9はフレーム画像5000(原画像)の一例を示す図である。図10は、図9に示されるフレーム画像5000を示すフレーム画像データ500をウェーブレット変換して得られる、分解レベル3のウェーブレット平面553を模式的な画像として示す図である。図9に示されるフレーム画像5000には、移動中の人が写る画像5001と、木が写る画像5002とが含まれている。図10に示されるように、ウェーブレット平面上の各サブバンドは、画像5001を示す部分5531と、画像5002を示す部分5532とを含んでいる。   FIG. 9 is a view showing an example of a frame image 5000 (original image). FIG. 10 is a view showing a wavelet plane 553 at decomposition level 3 obtained as a schematic image, which is obtained by wavelet transformation of the frame image data 500 showing the frame image 5000 shown in FIG. The frame image 5000 shown in FIG. 9 includes an image 5001 in which a moving person is photographed and an image 5002 in which a tree is photographed. As shown in FIG. 10, each sub-band on the wavelet plane includes a portion 5531 indicating an image 5001 and a portion 5532 indicating an image 5002.

ウェーブレット平面553上の各サブバンドは、フレーム画像5000を示すデータであると言える。サブバンド分割回数が3回のサブバンドLL3,HL3,LH3,HH3が示すフレーム画像5000の解像度は、サブバンド分割回数が2回のサブバンドHL2,LH2,HH2が示すフレーム画像5000の解像度よりも低いと言える。また、サブバンド分割回数が2回のサブバンドHL2,LH2,HH2が示すフレーム画像5000の解像度は、サブバンド分割回数が1回のサブバンドHL1,LH1,HH1が示すフレーム画像5000の解像度よりも低いと言える。そして、サブバンド分割回数が1回のサブバンドHL1,LH1,HH1が示すフレーム画像5000の解像度は、サブバンド分割されていないフレーム画像5000の解像度よりも低いと言える。   Each subband on the wavelet plane 553 can be said to be data indicating a frame image 5000. The resolution of the frame image 5000 represented by the subbands LL3, HL3, LH3, and HH3 with three subband divisions is higher than the resolution of the frame image 5000 represented by the subbands HL2, LH2, and HH2 with two subband divisions. It can be said that it is low. Further, the resolution of the frame image 5000 indicated by the subbands HL2, LH2, and HH2 with two subband divisions is higher than the resolution of the frame image 5000 indicated by the subbands HL1, LH1, and HH1 with one subband division. It can be said that it is low. Then, it can be said that the resolution of the frame image 5000 indicated by the subbands HL1, LH1, and HH1 with one subband division number is lower than the resolution of the frame image 5000 not subjected to the subband division.

このように、第1ウェーブレット係数データ(階層化データ510)は、解像度が互いに異なるフレーム画像を示す複数階層データで構成されていると言える。   As described above, it can be said that the first wavelet coefficient data (hierarchized data 510) is composed of multiple layer data indicating frame images having different resolutions.

なおMallat型では、上記のように、LLサブバンドを水平方向と垂直方向のそれぞれについて同じ回数で、再帰的に分解する。また後述のように、Mallat型では分解とは逆の手順でサブバンドが合成される。ただし、水平方向と垂直方向のそれぞれのL成分とH成分を同じ回数で、分解および合成する必要はない。すなわち、Mallat型とは異なる型式のウェーブレット変換を用いてもよい。また、分解回数が同じサブバンドのウェーブレット平面上の大きさは同じでなくもよい。   In the Mallat type, as described above, the LL subband is decomposed recursively the same number of times in each of the horizontal direction and the vertical direction. Also, as described later, in the Mallat type, sub-bands are synthesized in the reverse procedure of decomposition. However, it is not necessary to decompose and combine the L component and the H component in the horizontal direction and the vertical direction in the same number of times. That is, a wavelet transform of a type different from the Mallat type may be used. Also, the sizes on the wavelet plane of the sub-bands having the same number of decompositions may not be the same.

また、原画像及びウェーブレット画像において左上端を直交座標系の原点に採り、原点を0として扱い、ウェーブレット変換のL成分出力を偶数として扱い、H成分出力を奇数として扱う例を挙げる。ただし、L成分出力を奇数として扱い、H成分出力を偶数として扱うことも可能である。この直交座標系での互いに直交する2つの軸は、例えば、ウェーブレット平面の横方向及び縦方向にそれぞれ設定される。なお、ウェーブレット平面(図6〜8参照)は、ウェーブレット変換の偶数番目および奇数番目の出力を、サブバンドごとに再配置した概念的な平面である。   Also, in the original image and wavelet image, the upper left end is taken as the origin of the orthogonal coordinate system, the origin is treated as 0, the L component output of wavelet transform is treated as even, and the H component output is treated as odd. However, it is also possible to treat the L component output as an odd number and the H component output as an even number. The two orthogonal axes in this orthogonal coordinate system are set, for example, in the horizontal direction and the vertical direction of the wavelet plane. The wavelet plane (see FIGS. 6 to 8) is a conceptual plane in which even-numbered and odd-numbered outputs of the wavelet transform are rearranged for each subband.

また、ウェーブレット平面(ウェーブレット画像)の各係数の位置を、直交座標系での座標(x,y)で表すことがある。直交座標系の原点に位置する係数の座標(x,y)は(0,0)となる。   Further, the position of each coefficient of the wavelet plane (wavelet image) may be represented by coordinates (x, y) in the orthogonal coordinate system. The coordinates (x, y) of the coefficient located at the origin of the orthogonal coordinate system are (0, 0).

<量子化部>
量子化部225は、ウェーブレット変換部224から出力される第1ウェーブレット係数データに対して、量子化ステップサイズに基づいて、スカラー量子化を行い、それにより第1量子化ウェーブレット係数データ(第1量子化WT係数データ)を生成する。量子化部225は、生成した第1量子化ウェーブレット係数データを階層化データ501として出力する。第1量子化ウェーブレット係数データは、量子化された階層化データ510である。量子化ステップサイズは、例えば目標画質に応じて設定される。量子化ステップサイズを変更することによって、第1量子化ウェーブレット係数データが示す画像の解像度を調整することができる。階層化データ510が量子化されることにより、高域のサブバンドLH,HL,HHのデータ量が特に減少する。
<Quantizer>
The quantization unit 225 performs scalar quantization on the first wavelet coefficient data output from the wavelet transform unit 224 based on the quantization step size, whereby first quantized wavelet coefficient data (first quantum And generate WT coefficients data). The quantization unit 225 outputs the generated first quantized wavelet coefficient data as hierarchical data 501. The first quantized wavelet coefficient data is quantized hierarchical data 510. The quantization step size is set, for example, according to the target image quality. By changing the quantization step size, the resolution of the image represented by the first quantized wavelet coefficient data can be adjusted. By quantizing the layered data 510, the amount of data of the high band sub-bands LH, HL, HH particularly decreases.

第1量子化ウェーブレット係数データは、第1ウェーブレット係数データと同様のデータ構造を有している。このため、第1量子化ウェーブレット係数データによれば、第1ウェーブレット係数データと同様に、ウェーブレット平面が提供される。第1量子化ウェーブレット係数データによって提供されるウェーブレット平面を量子化ウェーブレット平面と呼ぶ場合もある。   The first quantized wavelet coefficient data has the same data structure as the first wavelet coefficient data. Thus, according to the first quantized wavelet coefficient data, a wavelet plane is provided as well as the first wavelet coefficient data. The wavelet plane provided by the first quantized wavelet coefficient data may be referred to as a quantized wavelet plane.

<差分生成部の詳細説明>
図11は差分生成部23の構成の一例を示す図である。図11に示されるように、差分生成部23は生成部230及びフレームバッファ231を備える。生成部230は、階層化データ501をフレームバッファ231に記憶する。生成部230は、現在の処理対象のフレーム画像を示す階層化データ501が階層化部22で生成されると、当該階層化データ501と、フレームバッファ231に記憶される、過去に生成された階層化データ501とに基づいて、差分階層化データ502を生成する。
<Detailed Description of Difference Generation Unit>
FIG. 11 is a diagram showing an example of the configuration of the difference generation unit 23. As shown in FIG. As shown in FIG. 11, the difference generation unit 23 includes a generation unit 230 and a frame buffer 231. The generation unit 230 stores the hierarchical data 501 in the frame buffer 231. The generation unit 230 generates hierarchical data 501 indicating the frame image to be processed at present by the hierarchical unit 22, and stores the hierarchical data 501 and the hierarchy generated in the past, which are stored in the frame buffer 231. Based on the conversion data 501, the difference hierarchical data 502 is generated.

以後、現在の処理対象のフレーム画像を対象フレーム画像あるいは現フレーム画像と呼ぶことがある。また、対象フレーム画像を示す階層化データ501を現階層化データ501と呼ぶことがある。また現階層化データ501の量子化ウェーブレット係数(量子化WT係数)を現量子化ウェーブレット係数(現量子化WT係数)と呼ぶことがある。また、対象フレーム画像の画像データ500を対象フレーム画像データ500あるいは現フレーム画像データ500と呼ぶことがある。また、生成部230が差分階層化データ502の生成で使用する2つの階層化データ501のうち、フレームバッファ231から読み出した過去の階層化データ501を過去階層化データ501と呼ぶことがある。また、過去階層化データ501が示すフレーム画像を過去フレーム画像と呼ぶことがある。また、過去階層化データ501の量子化ウェーブレット係数を過去量子化ウェーブレット係数(過去量子化WT係数)と呼ぶことがある。   Hereinafter, the current frame image to be processed may be referred to as a target frame image or a current frame image. Also, hierarchical data 501 indicating a target frame image may be referred to as current hierarchical data 501. Also, the quantized wavelet coefficient (quantized WT coefficient) of the current hierarchical data 501 may be referred to as a currently quantized wavelet coefficient (currently quantized WT coefficient). Also, the image data 500 of the target frame image may be referred to as target frame image data 500 or current frame image data 500. Also, among the two hierarchical data 501 used by the generation unit 230 in the generation of the difference hierarchical data 502, the previous hierarchical data 501 read from the frame buffer 231 may be referred to as the past hierarchical data 501. Also, a frame image indicated by the past hierarchical data 501 may be referred to as a past frame image. In addition, the quantized wavelet coefficients of the past hierarchical data 501 may be referred to as past quantized wavelet coefficients (past quantized WT coefficients).

生成部230は、対象フレーム画像を示す現階層化データ501と、過去フレーム画像を示す過去階層化データ501とに基づいて、対象フレーム画像と過去フレーム画像との差分を示す差分画像を示す差分階層化データ502を生成する。過去フレーム画像は、対象フレーム画像よりもPフレーム前のフレーム画像である。Pは、1以上の整数であって、例えば1に設定される。なお、Pは2以上であってもよい。   The generation unit 230 is a difference hierarchy indicating a difference image indicating a difference between the target frame image and the past frame image based on the current hierarchy data 501 indicating the target frame image and the past hierarchy data 501 indicating the past frame image. To generate the conversion data 502. The past frame image is a frame image P frames before the target frame image. P is an integer of 1 or more, and is set to 1, for example. P may be 2 or more.

生成部230は、現階層化データ501の各現量子化WT係数について、当該現量子化WT係数から、過去階層化データ501のうち、当該現量子化WT係数に対応する過去量子化WT係数を差し引いた値を量子化差分WT係数として求める。ここで、現量子化WT係数に対応する過去量子化WT係数とは、量子化ウェーブレット平面において、当該現量子化WT係数の位置と同じ位置に存在する過去量子化WT係数である。量子化差分WT係数を、単に差分WT係数と呼ぶことがある。   For each current quantized WT coefficient of the current hierarchical data 501, the generation unit 230 generates, from the current quantized WT coefficient, a past quantized WT coefficient corresponding to the current quantized WT coefficient in the past hierarchical data 501. The subtracted value is obtained as a quantization difference WT coefficient. Here, the past quantized WT coefficient corresponding to the current quantized WT coefficient is a past quantized WT coefficient existing at the same position as the current quantized WT coefficient in the quantized wavelet plane. The quantized differential WT coefficients may be simply referred to as differential WT coefficients.

以後、現階層化データ501の各現量子化WT係数について求められた量子化差分WT係数から成るデータを「第1量子化差分WT係数データ」と呼ぶことがある。第1量子化差分WT係数データは、第1ウェーブレット係数データと同様のデータ構造を有している。このため、第1量子化差分WT係数データによれば、第1ウェーブレット係数データと同様に、ウェーブレット平面が提供される。第1量子化差分WT係数データによって提供されるウェーブレット平面を、量子化差分ウェーブレット平面(量子化差分WT平面)と呼ぶことがある。   Hereinafter, data composed of quantized difference WT coefficients obtained for each current quantized WT coefficient of the current hierarchical data 501 may be referred to as “first quantized difference WT coefficient data”. The first quantized differential WT coefficient data has the same data structure as the first wavelet coefficient data. For this reason, according to the first quantization difference WT coefficient data, the wavelet plane is provided similarly to the first wavelet coefficient data. The wavelet plane provided by the first quantized difference WT coefficient data may be referred to as a quantized difference wavelet plane (quantized difference WT plane).

ここで、座標(x,y)の位置にある現量子化WT係数及び過去量子化WT係数をそれぞれC1(x,y)及びC2(x、y)とする。また、現量子化WT係数C1(x,y)及び過去量子化WT係数C2(x,y)から求められる、座標(x,y)の位置にある差分WT係数をDC(x,y)とする。この場合、差分WT係数DC(x,y)=C1(x,y)−C2(x,y)となる。   Here, it is assumed that the current quantized WT coefficient and the past quantized WT coefficient at the position of the coordinates (x, y) are C1 (x, y) and C2 (x, y), respectively. In addition, the differential WT coefficient at the position of the coordinates (x, y) obtained from the current quantized WT coefficient C 1 (x, y) and the past quantized WT coefficient C 2 (x, y) is DC (x, y) Do. In this case, the difference WT coefficient DC (x, y) = C1 (x, y) -C2 (x, y).

生成部230は、現階層化データ501及び過去階層化データ501に基づいて、量子化差分WT係数データを生成すると、生成した量子化差分WT係数データを差分階層化データ502として出力する。生成部230は、階層化部22で階層化データ501が生成されるたびに、当該階層化データ501を現階層化データ501として差分階層化データ502を生成する。   When the generation unit 230 generates quantized difference WT coefficient data based on the current hierarchical data 501 and the past hierarchical data 501, the generation unit 230 outputs the generated quantized difference WT coefficient data as the difference hierarchical data 502. The generation unit 230 generates the difference hierarchical data 502 by using the hierarchical data 501 as the current hierarchical data 501 each time the hierarchical data 501 is generated by the hierarchical unit 22.

<決定部の詳細説明>
図12は決定部26の構成の一例を示す図である。図12に示されるように、決定部26は、マスク生成部260及び送信対象決定部263を備える。
<Detailed Description of Determination Unit>
FIG. 12 is a diagram showing an example of the configuration of the determination unit 26. As shown in FIG. As shown in FIG. 12, the determination unit 26 includes a mask generation unit 260 and a transmission target determination unit 263.

<マスク生成部>
マスク生成部260は生成部261及び統合部262を有する。生成部261は、差分階層化データ502において、その絶対値がしきい値よりも大きい差分WT係数を特定するための差分フレームマスクのデータ512(以後、差分フレームマスクデータ512と呼ぶことがある)を生成する。当該しきい値は、例えば零に設定される。なお、しきい値は零よりも大きくてもよい。
<Mask generation unit>
The mask generation unit 260 includes a generation unit 261 and an integration unit 262. The generation unit 261 generates difference frame mask data 512 (hereinafter, may be referred to as difference frame mask data 512) for specifying a difference WT coefficient whose absolute value is larger than the threshold value in the difference hierarchical data 502. Do. The threshold is set to, for example, zero. The threshold may be greater than zero.

以後、差分階層化データ502において、その絶対値がしきい値よりも大きい差分WT係数を差分大の差分WT係数と呼び、その絶対値がしきい値以下の差分WT係数を差分小の差分WT係数と呼ぶことがある。差分階層化データ502は、差分大の差分WT係数から成る差分大データと、差分小の差分WT係数から成る差分小データとに分けることができる。   Hereinafter, in the difference hierarchical data 502, the difference WT coefficient whose absolute value is larger than the threshold is referred to as a large difference WT coefficient, and the difference WT coefficient whose absolute value is equal to or less than the threshold is the small difference WT Sometimes called a coefficient. The difference layered data 502 can be divided into large difference data consisting of large difference WT coefficients of large difference and small difference data consisting of small differential WT coefficients of small difference.

差分フレームマスクデータ512は、差分階層化データ502を構成する複数の差分WT係数にそれぞれ対応する複数の係数で構成されている。この複数の係数が、フレーム画像中(差分画像中)の画素の並びに対応付けて2次元配列されたものが、差分フレームマスクとなる。   The difference frame mask data 512 is composed of a plurality of coefficients respectively corresponding to a plurality of difference WT coefficients constituting the difference layered data 502. The plurality of coefficients are two-dimensionally arranged in correspondence with the arrangement of pixels in the frame image (in the difference image) to form a difference frame mask.

差分フレームマスクデータ512を構成する複数の係数には、差分大の差分WT係数に対応する第1ROIマスク係数と、差分小の差分WT係数に対応する第1非ROIマスク係数とが含まれる。第1ROIマスク係数は例えば1であって、第1非ROIマスク係数は例えば0である。生成部261は、差分階層化データ502の各差分WT係数の絶対値を求める。そして、生成部261は、量子化差分WT平面において座標(x,y)に位置する差分WT係数の絶対値がしきい値よりも大きければ(本例では零よりも大きければ)、差分フレームマスクにおいて当該座標(x,y)に位置する係数を第1ROIマスク係数とする。一方で、生成部261は、量子化差分WT平面において座標(x,y)に位置する差分WT係数の絶対値がしきい値以下であれば(本例では零であれば)、差分フレームマスクにおいて当該座標(x,y)に位置する係数を第1非ROIマスク係数とする。差分フレームマスクは、第1ROIマスク係数から成る第1ROIマスク部分と、第1非ROIマスク係数から成る第1非ROIマスク部分とに分けることができる。   The plurality of coefficients constituting the difference frame mask data 512 include a first ROI mask coefficient corresponding to a large difference WT coefficient and a first non-ROI mask coefficient corresponding to a small difference WT coefficient. The first ROI mask factor is, for example, one, and the first non-ROI mask factor is, for example, zero. The generation unit 261 obtains the absolute value of each difference WT coefficient of the difference hierarchical data 502. Then, if the absolute value of the difference WT coefficient located at the coordinates (x, y) in the quantization difference WT plane is larger than the threshold (in the present example, it is larger than zero), the generation unit 261 A coefficient located at the coordinates (x, y) is set as a first ROI mask coefficient. On the other hand, if the absolute value of the difference WT coefficient located at the coordinates (x, y) in the quantized difference WT plane is equal to or less than the threshold (if it is zero in this example), the generation unit 261 A coefficient located at the coordinates (x, y) is set as a first non-ROI mask coefficient. The difference frame mask can be divided into a first ROI mask portion consisting of first ROI mask coefficients and a first non-ROI mask portion consisting of first non-ROI mask coefficients.

図13はフレーム画像5010の一例を模式的に示す図である。フレーム画像5010には、人が写る画像5011が含まれている。図14は、図13に示されるフレーム画像5010を示す現階層化データ501に基づいて生成された差分階層化データ502において、差分大の差分WT係数を特定するための差分フレームマスク5120の一例を示す図である。図14に示されるように、差分フレームマスク5120は、白抜きで示された第1ROIマスク部分5121と、黒塗りで示された第1非ROIマスク部分5122とで構成されている。差分フレームマスク5120では、フレーム画像5010中の、人が写る画像5011に対応する部分が、第1ROIマスク部分5121となっている。   FIG. 13 is a view schematically showing an example of the frame image 5010. As shown in FIG. The frame image 5010 includes an image 5011 in which a person is photographed. FIG. 14 shows an example of the difference frame mask 5120 for specifying the difference WT coefficient of the difference large in the difference hierarchical data 502 generated based on the current hierarchical data 501 indicating the frame image 5010 shown in FIG. FIG. As shown in FIG. 14, the differential frame mask 5120 is configured of a first ROI mask portion 5121 shown in white and a first non-ROI mask portion 5122 shown in black. In the difference frame mask 5120, a portion corresponding to the image 5011 in which a person is photographed in the frame image 5010 is a first ROI mask portion 5121.

図14から理解できるように、差分フレームマスクは、量子化差分ウェーブレット平面に含まれる各サブバンド用のマスクの集合体として把握できる。すなわち、サブバンドごとのマスクをサブバンドマスクと呼ぶことにすると、差分フレームマスクはサブバンドマスクの集合体として把握できる。例えば、差分フレームマスクのうちでLLサブバンド用の部分をLLサブバンドマスクと呼ぶことにする。他のサブバンドに対応する部分についても同様とする。また、差分フレームマスクデータ512に含まれる、サブバンドマスクのデータをサブバンドマスクデータと呼ぶがある。また、LLサブバンドマスクのデータをLLサブバンドマスクデータと呼ぶことがある。他のサブバンドマスクのデータについても同様とする。サブバンドマスクデータは、量子化差分ウェーブレット平面における、当該サブバンドマスクデータに対応するサブバンドにおいて、差分大の差分WT係数を特定するためのデータであると言える。   As can be understood from FIG. 14, the differential frame mask can be understood as a collection of masks for each subband included in the quantized differential wavelet plane. That is, when the mask for each subband is called a subband mask, the differential frame mask can be understood as a collection of subband masks. For example, the portion for the LL sub-band in the differential frame mask will be referred to as the LL sub-band mask. The same applies to portions corresponding to other subbands. Also, there is data of the subband mask included in the difference frame mask data 512 as subband mask data. Also, data of the LL subband mask may be referred to as LL subband mask data. The same applies to data of other subband masks. The subband mask data can be said to be data for specifying a large difference WT coefficient in the subband corresponding to the subband mask data in the quantization differential wavelet plane.

統合部262は、量子化差分ウェーブレット平面のサブバンドの各分解レベルについて、当該分解レベルの複数のサブバンドにそれぞれ対応する複数のサブバンドマスクを統合して、当該複数のサブバンドに共通のサブバンドマスクを生成する。以後、当該共通のサブバンドマスクを統合サブバンドマスクと呼ぶことがある。   The integration unit 262 integrates a plurality of subband masks respectively corresponding to a plurality of subbands of the decomposition level for each decomposition level of the subbands of the quantization difference wavelet plane, and a sub-common to the plurality of subbands. Generate a band mask. Hereinafter, the common subband mask may be referred to as an integrated subband mask.

図15,16は統合サブバンドマスクの生成方法の一例を説明するための図である。図15は、4つのサブバンドが存在する分解レベルについての統合サブバンドマスクの生成方法を説明するための図である。言い換えれば、図15は、LLサブバンドが存在する分解レベルについての統合サブバンドマスクの生成方法を説明するための図である。図16は、3つのサブバンドが存在する分解レベルについての統合サブバンドマスクの生成方法を説明するための図である。言い換えれば、図16は、LLサブバンドが存在しない分解レベルについての統合サブバンドマスクの生成方法を説明するための図である。   15 and 16 are diagrams for explaining an example of a method of generating an integrated subband mask. FIG. 15 is a diagram for describing a method of generating an integrated subband mask for decomposition levels in which four subbands are present. In other words, FIG. 15 is a diagram for describing a method of generating an integrated subband mask for decomposition levels in which LL subbands are present. FIG. 16 is a diagram for describing a method of generating an integrated subband mask for decomposition levels in which three subbands are present. In other words, FIG. 16 is a diagram for describing a method of generating an integrated subband mask for decomposition levels in which LL subbands do not exist.

図15を参照して、分解レベル3のように、LLサブバンド、LHサブバンド、HLサブバンド及びHHサブバンドが存在する分解レベルについては、統合部262は、LLサブバンド、LHサブバンド、HLサブバンド及びHHサブバンドにそれぞれ対応するLLサブバンドマスク5125LL、LHサブバンドマスク5125LH、HLサブバンドマスク5125HL及びHHサブバンドマスク5125HHを統合して、統合サブバンドマスク5126を生成する。具体的には、統合部262は、LLサブバンドマスク5125LL、LHサブバンドマスク5125LH、HLサブバンドマスク5125HL及びHHサブバンドマスク5125HHにおける同じ位置の係数についての論理和を求めて、それによって得られた値を、統合サブバンドマスク5126でのそれと同じ位置の係数の値とする。したがって、LLサブバンドマスク5125LL、LHサブバンドマスク5125LH、HLサブバンドマスク5125HL及びHHサブバンドマスク5125HHにおける同じ位置の係数の少なくとも一つが1であれば、統合サブバンドマスク5126でのそれと同じ位置の係数は1となる。一方で、LLサブバンドマスク5125LL、LHサブバンドマスク5125LH、HLサブバンドマスク5125HL及びHHサブバンドマスク5125HHにおける同じ位置の係数のすべて0であれば、統合サブバンドマスク5126でのそれと同じ位置の係数は0となる。このようにして、統合部262は、統合サブバンドマスク5126での各位置の係数を求める。   Referring to FIG. 15, with respect to the decomposition level in which LL subbands, LH subbands, HL subbands and HH subbands are present as in decomposition level 3, combining section 262 combines LL subbands, LH subbands, LL subband mask 5125LL, LH subband mask 5125LH, HL subband mask 5125HL, and HH subband mask 5125HH corresponding to the HL subband and the HH subband, respectively, are integrated to generate an integrated subband mask 5126. Specifically, the integration unit 262 obtains the logical sum of the coefficients at the same position in the LL subband mask 5125LL, the LH subband mask 5125LH, the HL subband mask 5125HL, and the HH subband mask 5125HH, This value is taken as the value of the coefficient at the same position as that of integrated subband mask 5126. Therefore, if at least one of the coefficients at the same position in LL subband mask 5125LL, LH subband mask 5125LH, HL subband mask 5125HL and HH subband mask 5125HH is 1, it is at the same position as in integrated subband mask 5126 The factor is one. On the other hand, if all the coefficients at the same position in LL subband mask 5125LL, LH subband mask 5125LH, HL subband mask 5125HL and HH subband mask 5125HH are zero, the coefficients at the same position as in integrated subband mask 5126 Is zero. In this manner, the integration unit 262 obtains the coefficient of each position in the integrated subband mask 5126.

分解レベル1,2のように、LLサブバンドが存在しない分解レベルについては、図16に示されるように、統合部262は、LHサブバンド、HLサブバンド及びHHサブバンドにそれぞれ対応するLHサブバンドマスク5125LH、HLサブバンドマスク5125HL及びHHサブバンドマスク5125HHを統合して、統合サブバンドマスク5126を生成する。具体的には、統合部262は、LHサブバンドマスク5125LH、HLサブバンドマスク5125HL及びHHサブバンドマスク5125HHにおける同じ位置の係数についての論理和を求めて、それによって得られた値を、統合サブバンドマスク5126でのそれと同じ位置の係数の値とする。このようにして、統合部262は、統合サブバンドマスク5126での各位置の係数を求める。   As shown in FIG. 16, with respect to the decomposition level in which the LL sub-band is not present, as in the decomposition levels 1 and 2, the merging unit 262 selects the LH sub-band corresponding to the LH sub-band, the HL sub-band and the HH sub-band respectively. Band mask 5125 LH, HL sub-band mask 5 125 HL and HH sub-band mask 5 125 HH are integrated to generate integrated sub-band mask 5126. Specifically, integration section 262 calculates the logical sum of the coefficients at the same position in LH subband mask 5125 LH, HL subband mask 5125 HL and HH subband mask 5125 HH, and integrates the values obtained thereby. The value of the coefficient at the same position as that of the band mask 5126 is used. In this manner, the integration unit 262 obtains the coefficient of each position in the integrated subband mask 5126.

以上のようにして、統合部262は、サブバンドの各分解ベルについて、当該分解レベルの複数のサブバンドに共通のサブバンドマスク(統合サブバンドマスク)を生成する。同じ分解レベルの複数のサブバンドに共通のサブバンドマスクによって、当該複数のサブバンドのそれぞれでの差分大の差分WT係数をほぼ特定することができる。決定部26は、統合サブバンドマスクを使用して、送信対象データ503を決定する。   As described above, the integration unit 262 generates a sub-band mask (unification sub-band mask) common to a plurality of sub-bands of the decomposition level for each decomposition bell of the sub-bands. By the sub-band mask common to a plurality of sub-bands of the same decomposition level, it is possible to substantially identify difference large differential WT coefficients in each of the plurality of sub-bands. The determination unit 26 determines the transmission target data 503 using the integrated subband mask.

以後、分解レベル3の4つのサブバンドに共通の統合サブバンドマスクを、分解レベル3に対応する統合サブバンドマスクと呼ぶことがある。同様に、分解レベル2の3つのサブバンドマスクに共通の統合サブバンドマスクを、分解レベル2に対応する統合サブバンドマスクと呼ぶことがある。同様に、分解レベル1の3つのサブバンドマスクに共通の統合サブバンドマスクを、分解レベル1に対応する統合サブバンドマスクと呼ぶことがある。また、分解レベル1〜3に対応する統合サブバンドマスクをまとめて統合マスクと呼ぶことがある。また、統合サブバンドマスクのデータを統合サブバンドマスクデータと呼び、統合マスクのデータを統合マスクデータと呼ぶことがある。また、統合サブバンドマスクにおいて、係数が1である部分を第2ROIマスク部分と呼び、係数が0である部分を第2非ROIマスク部分と呼ぶことがある。図15,16に示される統合サブバンドマスク5126において、白抜き部分が第2ROIマスク部分であって、黒塗り部分が第2非ROIマスク部分である。   Hereinafter, the integrated subband mask common to the four subbands at decomposition level 3 may be referred to as an integrated subband mask corresponding to decomposition level 3. Similarly, an integrated subband mask common to the three subband masks of decomposition level 2 may be referred to as an integrated subband mask corresponding to decomposition level 2. Similarly, the integrated subband mask common to the three subband masks at decomposition level 1 may be referred to as an integrated subband mask corresponding to decomposition level 1. In addition, integrated sub-band masks corresponding to decomposition levels 1 to 3 may be collectively referred to as an integrated mask. Also, data of the integrated subband mask may be referred to as integrated subband mask data, and data of the integrated mask may be referred to as integrated mask data. Also, in the integrated subband mask, a portion where the coefficient is 1 may be referred to as a second ROI mask portion, and a portion where the coefficient is 0 may be referred to as a second non-ROI mask portion. In the integrated sub-band mask 5126 shown in FIGS. 15 and 16, the white part is the second ROI mask part and the black part is the second non-ROI mask part.

統合部262は、差分フレームマスクデータ512に基づいて、サブバンドの複数の分解レベルにそれぞれ対応する複数の統合サブバンドマスクデータを含む統合マスクデータ513を生成して出力する。   The integration unit 262 generates and outputs integrated mask data 513 including a plurality of integrated subband mask data respectively corresponding to a plurality of decomposition levels of subbands based on the difference frame mask data 512.

<送信対象決定部>
送信対象決定部263は、マスク生成部260で生成される統合マスクデータ513と、ゲートウェイ3からの指示情報520とに基づいて、差分階層化データ502から送信対象データ503を決定する。また送信対象決定部263は、指示情報520に基づいて、非差分階層化データ501から送信対象データ503を決定する。
<Transmission Target Determination Unit>
The transmission target determination unit 263 determines the transmission target data 503 from the difference hierarchical data 502 based on the integrated mask data 513 generated by the mask generation unit 260 and the instruction information 520 from the gateway 3. Further, the transmission target determination unit 263 determines the transmission target data 503 from the non-difference layered data 501 based on the instruction information 520.

送信対象決定部263は、例えば、差分階層化データ502の各サブバンドを、JPEG2000と同様に、32×32あるいは64×64程度の「コードブロック」と呼ばれる領域に分割する。図17は、量子化差分ウェーブレット平面5020の各サブバンドが複数のコードブロック5021に分割されている様子の一例を示す図である。図17に示されるように、サブバンドは、その左上端を基準にして、複数のコードブロック5021に分割される。そして、送信対象決定部263は、差分階層化データ502において、指示情報520に応じた差分コードブロックを、統合マスクデータ513に基づいて特定し、特定した差分コードブロックを送信対象データ503とする。   For example, the transmission target determination unit 263 divides each sub-band of the difference layered data 502 into an area called a “code block” of about 32 × 32 or 64 × 64 as in JPEG2000. FIG. 17 is a diagram showing an example of how each subband of the quantization difference wavelet plane 5020 is divided into a plurality of code blocks 5021. As shown in FIG. 17, the sub-band is divided into a plurality of code blocks 5021 based on the upper left end thereof. Then, the transmission target determination unit 263 identifies a differential code block corresponding to the instruction information 520 in the differential layered data 502 based on the integrated mask data 513, and sets the identified differential code block as transmission target data 503.

ここで、差分コードブロックとは、統合サブバンドマスクを、それに対応する分解レベルのサブバンドに重ねた場合に、当該サブバンドにおいて、当該統合サブバンドマスクの第2ROIマスク部分の少なくとも一部を含むコードブロックを意味する。   Here, the differential code block includes at least a part of the second ROI mask portion of the integrated subband mask in the subband when the integrated subband mask is superimposed on the subband of the corresponding decomposition level. Stands for code block.

図18は、分解レベル2に対応する、第2ROIマスク部分5126a及び第2非ROIマスク部分5126bを備える統合サブバンドマスク5126が、分解レベル2のサブバンドに重ねられている様子の一例を示す図である。図18の例では、分解レベル2のサブバンドを構成する30個のコードブロック5021のうち、統合サブバンドマスク5126の第2ROIマスク部分5126aの少なくとも一部を含む9個のコードブロック5021のそれぞれが差分コードブロック5021となる。差分コードブロック5021に斜線を示すと、図19のようになる。   FIG. 18 shows an example of how integrated sub-band mask 5126 including second ROI mask portion 5126a and second non-ROI mask portion 5126b corresponding to decomposition level 2 is superimposed on the subbands of decomposition level 2. It is. In the example of FIG. 18, among the 30 code blocks 5021 constituting the subband of decomposition level 2, each of 9 code blocks 5021 including at least a part of the second ROI mask portion 5126 a of the integrated subband mask 5126 is The difference code block 5021 is obtained. The diagonal lines in the differential code block 5021 are as shown in FIG.

指示情報520によって、IoT端末2が送信すべきデータとして、例えば、分解レベル3のサブバンドLL3が指定された場合、送信対象決定部263は、分解レベル3に対応する統合サブバンドマスクをサブバンドLL3に重ねた場合に、当該サブバンドLL3において、当該統合サブバンドマスクの第2ROIマスク部分の少なくとも一部を含む差分コードブロックを、送信対象データ503とする。   For example, when the subband LL3 at decomposition level 3 is designated as data to be transmitted by the IoT terminal 2 by the instruction information 520, the transmission target determining unit 263 performs subband processing on the integrated subband mask corresponding to the decomposition level 3 When overlapping with LL3, in the subband LL3, a differential code block including at least a part of the second ROI mask portion of the integrated subband mask is set as transmission target data 503.

また送信対象決定部263は、差分階層化データ502と同様に、非差分階層化データ501の各サブバンドを、32×32あるいは64×64程度のコードブロックに分割する。そして、送信対象決定部263は、非差分階層化データ501を構成する複数のコードブロックにおいて、指示情報520に応じたコードブロックを特定し、特定したコードブロックを送信対象データ503とする。   Further, the transmission target determination unit 263 divides each sub-band of the non-difference layered data 501 into code blocks of approximately 32 × 32 or 64 × 64, as with the difference layered data 502. Then, the transmission target determination unit 263 identifies a code block corresponding to the instruction information 520 in the plurality of code blocks constituting the non-difference layered data 501, and sets the identified code block as transmission target data 503.

以後、コードブロックをCBと呼ぶことがある。また、非差分階層化データ501のコードブロックを非差分コードブロック(非差分CB)と呼ぶことがある。   Hereinafter, the code block may be called CB. Also, the code block of the non-differential layered data 501 may be referred to as a non-differential code block (non-differential CB).

差分階層化データ502に含まれる複数の差分コードブロックから成る差分CBデータは、差分階層化データ502に含まれる差分大データ(その絶対値がしきい値よりも大きい差分WT係数から成るデータ)と概ね一致する。差分CBデータは、差分画像に含まれる、動く物体を示す部分画像を示すデータであると言える。   Difference CB data composed of a plurality of difference code blocks included in difference layered data 502 is large difference data (data composed of difference WT coefficients whose absolute value is larger than a threshold value) included in difference layered data 502 It almost agrees. The difference CB data can be said to be data indicating a partial image indicating a moving object, which is included in the difference image.

ゲートウェイ3は、指示情報520を使用して、IoT端末2が送信すべき差分コードブロックを自由に指定することができる。例えば、ゲートウェイ3は、IoT端末2が送信すべき差分コードブロックを、コードブロック単位で指定することができる。またゲートウェイ3は、IoT端末2が送信すべき差分コードブロックをサブバンド単位で指定することができる。例えば、ゲートウェイ3は、IoT端末2が送信すべき差分コードブロックとして、サブバンドLL3の差分コードブロックを指定することができる。またゲートウェイ3は、IoT端末2が送信すべき差分コードブロックとして、例えば、サブバンドHH3,HL3の差分コードブロックを指定することができる。またゲートウェイ3は、IoT端末2が送信すべきデータを分解レベル単位で指定することもできる。例えば、ゲートウェイ3は、IoT端末2が送信すべき差分コードブロックとして、分解レベル2の差分コードブロックを指定することができる。この場合には、サブバンドHH2,LH2,HL2の差分コードブロックが指定される。またゲートウェイ3は、IoT端末2が送信すべき差分コードブロックとして、例えば、分解レベル1,2の差分コードブロックを指定することができる。この場合には、サブバンドHH1,LH1,HL1,HH2,LH2,HL2の差分コードブロックが指定される。   The gateway 3 can freely designate differential code blocks to be transmitted by the IoT terminal 2 using the instruction information 520. For example, the gateway 3 can specify a differential code block to be transmitted by the IoT terminal 2 in code block units. Also, the gateway 3 can specify the differential code block to be transmitted by the IoT terminal 2 in units of subbands. For example, the gateway 3 can specify the differential code block of the sub-band LL3 as the differential code block to be transmitted by the IoT terminal 2. Also, the gateway 3 can specify, for example, differential code blocks of the sub-bands HH3 and HL3 as differential code blocks to be transmitted by the IoT terminal 2. The gateway 3 can also specify data to be transmitted by the IoT terminal 2 in units of decomposition levels. For example, the gateway 3 can designate the decomposition level 2 difference code block as the difference code block to be transmitted by the IoT terminal 2. In this case, differential code blocks of the sub-bands HH2, LH2, and HL2 are designated. Also, the gateway 3 can specify, for example, differential code blocks at decomposition levels 1 and 2 as differential code blocks to be transmitted by the IoT terminal 2. In this case, differential code blocks of the sub-bands HH1, LH1, HL1, HH2, LH2, and HL2 are designated.

またゲートウェイ3は、指示情報520を使用して、IoT端末2が送信すべき非差分コードブロックを自由に指定することができる。ゲートウェイ3は、IoT端末2が送信すべき非差分コードブロックを、例えば、コードブロック単位、サブバンド単位及び分解レベル単位で指定することができる。   Also, the gateway 3 can freely designate the non-differential code block to be transmitted by the IoT terminal 2 using the instruction information 520. The gateway 3 can specify non-differential code blocks to be transmitted by the IoT terminal 2 in units of code blocks, units of subbands, and units of decomposition level, for example.

以後、ゲートウェイ3が、IoT端末2が送信すべきデータとして差分コードブロックを指定する場合の指示情報520を、差分送信指示情報520と呼ぶことがある。また、ゲートウェイ3が、IoT端末2が送信すべきデータとして非差分コードブロックを指定する場合の指示情報520を、非差分送信指示情報520と呼ぶことがある。また、ゲートウェイ3が指示情報520で指定するデータを、指定データと呼ぶことがある。指定データは、指示情報520によってIoT端末2に指示される、IoT端末2が送信すべきデータであると言える。   Hereinafter, the instruction information 520 in the case where the gateway 3 designates a differential code block as data to be transmitted by the IoT terminal 2 may be referred to as differential transmission instruction information 520. Further, the instruction information 520 when the gateway 3 designates a non-differential code block as data to be transmitted by the IoT terminal 2 may be referred to as non-differential transmission instruction information 520. Also, data designated by the gateway 3 in the instruction information 520 may be referred to as designated data. The specified data can be said to be data to be transmitted by the IoT terminal 2 which is instructed to the IoT terminal 2 by the instruction information 520.

送信対象決定部263は、ゲートウェイ3から差分送信指示情報520を受け取った場合には、差分階層化データ502のうち、差分送信指示情報520で指定される指定データに該当する差分コードブロックを、送信対象データ503とする。一方で、送信対象決定部263は、ゲートウェイ3から非差分送信指示情報520を受け取った場合には、非差分階層化データ501のうち、非差分送信指示情報520で指定される指定データに該当する非差分コードブロックを、送信対象データ503とする。   When the transmission target determination unit 263 receives the difference transmission instruction information 520 from the gateway 3, the transmission object determination unit 263 transmits the difference code block corresponding to the designated data specified by the difference transmission instruction information 520 in the difference hierarchical data 502. The target data 503 is assumed. On the other hand, when the transmission target determination unit 263 receives the non-differential transmission instruction information 520 from the gateway 3, the transmission target determination unit 263 corresponds to the designation data specified in the non-differential transmission instruction information 520 among the non-differential hierarchical data 501. A non-differential code block is set as transmission target data 503.

送信対象決定部263は、送信対象データ503を決定すると、送信対象データ503に含まれる各コードブロックについてのウェーブレット平面上での位置を示す座標を含む座標データ504を生成して出力する。座標データ504は座標メモリ27の座標テーブル27aに登録される。これにより、IoT端末2から送信されるコードブロックの座標が座標テーブル27aに登録される。   When the transmission target determination unit 263 determines the transmission target data 503, the transmission target determination unit 263 generates and outputs coordinate data 504 including coordinates indicating the position on the wavelet plane for each code block included in the transmission target data 503. The coordinate data 504 is registered in the coordinate table 27 a of the coordinate memory 27. Thereby, the coordinates of the code block transmitted from the IoT terminal 2 are registered in the coordinate table 27a.

本例では、例えば、ウェーブレット平面の左上端を原点とし、互いに直交する2つの軸を当該ウェーブレット平面の横方向及び縦方向にそれぞれ設定した直交座標系において、コードブロックの座標が表される。以後、ウェーブレット平面上でのコードブロックの座標を(i,j)で表すことがある。   In this example, for example, the coordinates of the code block are represented in an orthogonal coordinate system in which the upper left end of the wavelet plane is set as the origin and two axes orthogonal to each other are set in the horizontal direction and the vertical direction of the wavelet plane. Hereinafter, the coordinates of the code block on the wavelet plane may be represented by (i, j).

送信対象決定部263は、送信対象データ503が差分CBを含む場合には、送信対象データ503に含まれる各差分CBについての量子化差分ウェーブレット平面上での座標(i,j)を含む座標データ504を生成する。一方で、送信対象決定部263は、送信対象データ503が非差分CBを含む場合には、送信対象データ503に含まれる各非差分CBについての量子化ウェーブレット平面上での座標(i,j)を含む座標データ504を生成する。   When the transmission target data 503 includes the difference CB, the transmission target determination unit 263 includes coordinate data including coordinates (i, j) on the quantized difference wavelet plane for each difference CB included in the transmission target data 503. Generate 504. On the other hand, when the transmission target data 503 includes the non-difference CB, the transmission target determination unit 263 determines the coordinates (i, j) on the quantized wavelet plane for each non-difference CB included in the transmission target data 503. To generate coordinate data 504 including.

以上のように、決定部26は、差分階層化データ502のうち、その値の絶対値がしきい値よりも大きい差分大データと、ゲートウェイ3からの差分送信指示情報520とに基づいて、当該差分階層化データ502から送信対象データ503を決定することができる。また決定部26は、ゲートウェイ3からの非差分送信指示情報520に基づいて、非差分階層化データ501から送信対象データ503を決定することができる。   As described above, the determination unit 26 determines, based on the difference large data whose absolute value of the value is larger than the threshold value among the difference hierarchical data 502 and the difference transmission instruction information 520 from the gateway 3. The transmission target data 503 can be determined from the difference hierarchical data 502. Further, the determination unit 26 can determine the transmission target data 503 from the non-differential layered data 501 based on the non-differential transmission instruction information 520 from the gateway 3.

なお上記の例では、差分階層化データ502において、その絶対値がしきい値よりも大きい差分WT係数を差分大の差分WT係数としているが、その絶対値がしきい値以上の差分WT係数を差分大の差分WT係数としてもよい。この場合には、差分階層化データ502において、その絶対値がしきい値未満の差分WT係数が差分小の差分WT係数となる。   In the above example, in the differential layered data 502, the differential WT coefficient whose absolute value is larger than the threshold is used as the differential WT coefficient of the large difference, but the differential WT coefficient whose absolute value is equal to or larger than the threshold is used. A difference large difference WT coefficient may be used. In this case, in the difference hierarchical data 502, the difference WT coefficient whose absolute value is less than the threshold value becomes the difference WT coefficient whose difference is small.

<符号化装置の詳細説明>
図20は符号化装置24の構成の一例を示す図である。図20に示されるように、符号化装置24は符号化部240及びビットストリーム生成部243を備える。符号化部240は、送信対象データ503を圧縮符号化して符号化データ505を生成する。ビットストリーム生成部243は、符号化データ505を含むビットストリーム506を生成して送信部25aに送信する。送信部25aは、ビットストリーム506をゲートウェイ3に送信する。
<Detailed Description of Encoding Device>
FIG. 20 is a diagram showing an example of the configuration of the encoding device 24. As shown in FIG. As shown in FIG. 20, the encoding device 24 includes an encoding unit 240 and a bit stream generation unit 243. The encoding unit 240 compresses and encodes the transmission target data 503 to generate encoded data 505. The bit stream generation unit 243 generates a bit stream 506 including the encoded data 505 and transmits the bit stream 506 to the transmission unit 25 a. The transmitting unit 25 a transmits the bit stream 506 to the gateway 3.

<符号化部>
符号化部240では、例えば、ビットプレーン符号化を行うEBCOT(Embedded Block Coding with Optimized Truncation)に従ってエントロピー符号化が行われる。本例では、符号化部240は、係数ビットモデリング部241及びエントロピー符号化部242を備える。
<Encoding unit>
The encoding unit 240 performs entropy coding, for example, in accordance with Embedded Block Coding with Optimized Truncation (EBCOT) that performs bit-plane coding. In this example, the encoding unit 240 includes a coefficient bit modeling unit 241 and an entropy encoding unit 242.

係数ビットモデリング部241は、送信対象データ503に対してビットモデリング処理を行う。ビットモデリング処理では、まず、係数ビットモデリング部241は、送信対象データ503に含まれる各コードブロックを、各ビットの2次元配列で構成される複数のビットプレーンに分解する。係数ビットモデリング部241は、送信対象データ503が差分CBで構成されている場合には、送信対象データ503に含まれる各差分CBを複数のビットプレーンに分解する。一方で、係数ビットモデリング部241は、送信対象データ503が非差分CBで構成されている場合には、送信対象データ503に含まれる各非差分CBを複数のビットプレーンに分解する。以後、送信対象データ503に含まれる差分CB及び非差分CBを総称して送信対象コードブロックと呼ぶことがある。   The coefficient bit modeling unit 241 performs bit modeling processing on the transmission target data 503. In the bit modeling process, first, the coefficient bit modeling unit 241 decomposes each code block included in the transmission target data 503 into a plurality of bit planes configured by a two-dimensional array of each bit. When the transmission target data 503 is configured by the difference CB, the coefficient bit modeling unit 241 decomposes each difference CB included in the transmission target data 503 into a plurality of bit planes. On the other hand, when the transmission target data 503 includes non-differential CBs, the coefficient bit modeling unit 241 decomposes each non-differential CB included in the transmission target data 503 into a plurality of bit planes. Hereinafter, the differential CB and the non-differential CB included in the transmission target data 503 may be collectively referred to as a transmission target code block.

図21は、送信対象コードブロック570を構成するn枚のビットプレーン571〜571n−1(n:自然数)の一例を示す図である。係数ビットモデリング部241は、送信対象コードブロック570中の各係数の二進値を構成する各ビットを別々のビットプレーンに割り当てる。図21に示されるように、コードブロック570中の1点の係数の2進値572が“011・・・0”である場合、この2進値572を構成する複数のビットは、それぞれ、ビットプレーン571n−1,571n−2,571n−3,・・・,571に属するように分解される。図中のビットプレーン571n−1は、係数の最上位ビット(MSB)のみからなる最上位ビットプレーンを表し、ビットプレーン571は、その最下位ビット(LSB)のみからなる最下位ビットプレーンを表している。 FIG. 21 is a diagram illustrating an example of n bit planes 571 0 to 571 n-1 (n is a natural number) that configure the transmission target code block 570. The coefficient bit modeling unit 241 assigns each bit constituting the binary value of each coefficient in the transmission target code block 570 to a separate bit plane. As shown in FIG. 21, when the binary value 572 of the coefficient of one point in the code block 570 is “011... 0”, the plurality of bits constituting the binary value 572 are each a bit plane 571 n-1, 571 n- 2, 571 n-3, ···, is decomposed to belong to 571 0. Bit plane 571 n-1 in the figure represents the most significant bit plane consisting only of the most significant bit (MSB) of the coefficient, and bit plane 571 10 represents the least significant bit plane consisting only of the least significant bit (LSB) It represents.

さらに、係数ビットモデリング部241は、各ビットプレーン571(k=0〜n−1)内の各ビットのコンテクスト(context)判定を行い、図22に示すように、各ビットの有意性(判定結果)に応じて、ビットプレーン571を3種類の符号化パス、すなわち、CLパス(CLeanup pass)、MRパス(Magnitude Refinement pass)及びSIGパス(SIGnificance propagation pass)に分解する。各符号化パスに関するコンテクスト判定のアルゴリズムは、JPEG2000の規格で定められている。それによれば、「有意である」とは、これまでの符号化処理において注目係数がゼロでないとわかっている状態のことを意味する。また「有意で無い」とは、係数がゼロであるか、あるいはゼロである可能性がある状態のことを意味する。 Furthermore, the coefficient bit modeling unit 241 performs context determination of each bit in each bit plane 571 k (k = 0 to n−1), and as shown in FIG. According to the result, the bit plane 571 k is decomposed into three types of coding passes: CL pass, CL pass, Magnification Refinement pass, and SIG pass (SIGnificance propagation pass). The algorithm of context determination for each coding pass is defined in the JPEG 2000 standard. According to it, "significant" means a state in which the coefficient of interest is known not to be zero in the coding process so far. Also, "not significant" means that the coefficient may be zero or may be zero.

係数ビットモデリング部241は、SIGパス(有意な係数が周囲にある有意でない係数の符号化パス)、MRパス(有意な係数の符号化パス)及びCLパス(SIGパス及びMRパスに該当しない残りの係数の符号化パス)の3種類の符号化パスでビットプレーン符号化を実行する。ビットプレーン符号化は、最上位ビットプレーンから最下位ビットプレーンにかけて、各ビットプレーンのビットを4ビット単位で走査し、有意な係数が存在するか否かを判定することで行われる。有意で無い係数(0ビット)のみで構成されるビットプレーンの数は零ビットプレーン情報として、ビットストリーム生成部243が生成する後述のパケットヘッダに含められる。ビットプレーン符号化では、有意な係数が最初に出現したビットプレーンから実際の符号化が開始される。その符号化開始のビットプレーンはCLパスのみで符号化され、当該ビットプレーンよりも下位のビットプレーンは、上記3種類の符号化パスで順次符号化される。   The coefficient bit modeling unit 241 sets the SIG pass (coding pass of non-significant coefficient with significant coefficient around), the MR pass (coding pass of significant coefficient), and the CL pass (remaining non-SIG pass and MR pass). Bit plane coding is performed in three types of coding passes of Bit plane coding is performed by scanning the bits of each bit plane in units of 4 bits from the most significant bit plane to the least significant bit plane, and determining whether a significant coefficient is present or not. The number of bit planes composed only of insignificant coefficients (0 bits) is included in the below-described packet header generated by the bit stream generation unit 243 as zero bit plane information. In bit plane coding, actual coding starts from the bit plane where the significant coefficient first appeared. The bit plane at the start of encoding is encoded only by the CL pass, and bit planes lower than the bit plane are encoded sequentially by the above three types of encoding passes.

エントロピー符号化部242は、係数ビットモデリング部241で生成されたデータに対してエントロピー符号化を行って、符号化データ505を生成する。符号化データ505は、圧縮符号化された送信対象コードブロックで構成されている。エントロピー符号化としては、例えば算術符号化が利用される。   The entropy coding unit 242 performs entropy coding on the data generated by the coefficient bit modeling unit 241 to generate coded data 505. The encoded data 505 is composed of a compression-coded transmission target code block. For example, arithmetic coding is used as entropy coding.

なお符号化部240では、エントロピー符号化部242によって生成された符号化データ505に対してレート制御を行って、符号量を制御してもよい。以後、符号化データ505に含まれる差分CBを符号化差分CBと呼ぶことがある。符号化差分CBで構成された符号化データ505が、符号化差分データ505となる。また、符号化データ505に含まれる非差分CBを符号化非差分CBと呼ぶことがある。符号化非差分CBで構成された符号化データ505が符号化非差分データ505となる。また、符号化差分CB及び符号化非差分CBを総称して符号化CBと呼ぶことがある。   The encoding unit 240 may perform rate control on the encoded data 505 generated by the entropy encoding unit 242 to control the code amount. Hereinafter, the difference CB included in the coded data 505 may be referred to as a coded difference CB. The encoded data 505 configured by the encoded difference CB becomes the encoded difference data 505. Also, the non-differential CB included in the encoded data 505 may be referred to as an encoded non-differential CB. The encoded data 505 configured by the encoded non-differential CB becomes the encoded non-differential data 505. Also, the coding difference CB and the coding non-difference CB may be collectively referred to as coding CB.

<ビットストリーム生成部>
ビットストリーム生成部243は、符号化データ505を含むビットストリーム506を生成する。具体的には、ビットストリーム生成部243は、符号化データ505をパケット化し、それによって生成されたパケットデータと付加情報を含むビットストリーム506を生成する。付加情報には、パケットヘッダ、レイヤー構成情報、スケーラビリティ情報及び量子化テーブルなどが含まれる。パケットヘッダには、零長パケット情報、コードブロックの包含情報、零ビットプレーン情報、符号化パス数情報及びコードブロックの符号量情報(コードブロックの圧縮データ長)が含まれている。パケットヘッダは符号化されてビットストリーム506に含められる。ビットストリーム生成部243で生成されるビットストリーム506は、決定部26から出力される、当該ビットストリーム506に含まれる符号化データ504に含まれる各符号化CBの座標を示す座標データ504とともに、送信部25aからゲートウェイ3に送信される。
<Bitstream Generator>
The bitstream generation unit 243 generates a bitstream 506 including the encoded data 505. Specifically, the bit stream generation unit 243 packetizes the coded data 505 and generates a bit stream 506 including packet data generated thereby and additional information. The additional information includes a packet header, layer configuration information, scalability information, and a quantization table. The packet header includes zero-length packet information, code block inclusion information, zero bit plane information, coding pass number information, and code amount information of the code block (compressed data length of the code block). The packet header is encoded and included in bitstream 506. The bit stream 506 generated by the bit stream generation unit 243 is transmitted together with coordinate data 504 indicating the coordinates of each coded CB included in the coded data 504 included in the bit stream 506, which is output from the determination unit 26. It is transmitted to the gateway 3 from the unit 25a.

<ゲートウェイの詳細説明>
<復号化装置の詳細説明>
図23はゲートウェイ3の復号化装置31の構成の一例を示す図である。図23に示されるように、復号化装置31は、ビットストリーム解析部310、復号化部311及び逆量子化部314を備えている。
<Detailed explanation of gateway>
<Detailed Description of Decryption Device>
FIG. 23 is a diagram showing an example of the configuration of the decryption device 31 of the gateway 3. As shown in FIG. 23, the decoding device 31 includes a bit stream analysis unit 310, a decoding unit 311, and an inverse quantization unit 314.

ビットストリーム解析部310は、IoT端末2からのビットストリーム506を解析して、当該ビットストリーム506から符号化データ505及び付加情報を抽出する。ビットストリーム解析部310は、抽出した符号化データ505を復号化部311及びデータ処理部32に出力する。またビットストリーム解析部310は、抽出した付加情報に含まれる符号化されたパケットヘッダを復号化する。付加情報は、復号化部311及び逆量子化部314等で使用される。   The bit stream analysis unit 310 analyzes the bit stream 506 from the IoT terminal 2 and extracts the encoded data 505 and additional information from the bit stream 506. The bit stream analysis unit 310 outputs the extracted encoded data 505 to the decoding unit 311 and the data processing unit 32. Also, the bit stream analysis unit 310 decodes the encoded packet header included in the extracted additional information. The additional information is used by the decoding unit 311, the inverse quantization unit 314, and the like.

復号化部311は符号化データ505に対して所定の伸張復号化を行う。所定の伸張復号化は、符号量制御を除いて、図20の符号化部240における圧縮符号化とは逆の処理にあたる。本例では、復号化部311は、エントロピー復号化部312及び係数ビットモデリング部313を備えている。   The decoding unit 311 performs predetermined decompression decoding on the encoded data 505. The predetermined decompression decoding corresponds to processing reverse to compression encoding in the encoding unit 240 of FIG. 20 except code amount control. In this example, the decoding unit 311 includes an entropy decoding unit 312 and a coefficient bit modeling unit 313.

エントロピー復号化部312は、符号化データ505に対してエントロピー復号化を行って、ビットデータを生成する。エントロピー復号化は、図20のエントロピー符号化部242におけるエントロピー符号化とは逆の処理にあたる。   The entropy decoding unit 312 performs entropy decoding on the coded data 505 to generate bit data. Entropy decoding corresponds to processing opposite to the entropy coding in the entropy coding unit 242 of FIG.

係数ビットモデリング部313は、エントロピー復号化部312で生成されたビットデータに対してビットモデリング処理を行って、符号化データ505に含まれる各送信対象コードブロックを構成する複数の係数を復元する。ここでのビットモデリング処理は、図20の係数ビットモデリング部241におけるそれとは逆の処理にあたる。係数ビットモデリング部313は、復元した係数を逆量子化部314に入力する。   The coefficient bit modeling unit 313 performs bit modeling processing on the bit data generated by the entropy decoding unit 312, and restores a plurality of coefficients constituting each transmission target code block included in the encoded data 505. The bit modeling process here is the reverse process to that in the coefficient bit modeling unit 241 of FIG. The coefficient bit modeling unit 313 inputs the restored coefficient to the inverse quantization unit 314.

ビットストリーム解析部310で符号化差分データ505が抽出される場合には、係数ビットモデリング部313では、抽出された符号化差分データ505に含まれる各符号化差分CBに含まれる量子化差分WT係数が復元される。一方で、ビットストリーム解析部310で符号化非差分データ505が抽出される場合には、係数ビットモデリング部313では、抽出された符号化非差分データ505に含まれる各符号化非差分CBに含まれる量子化WT係数が復元される。   When the coded difference data 505 is extracted by the bit stream analysis unit 310, the coefficient bit modeling unit 313 determines quantized difference WT coefficients included in each coded difference CB included in the extracted coded difference data 505. Is restored. On the other hand, when the encoded non-differential data 505 is extracted by the bit stream analysis unit 310, the coefficient bit modeling unit 313 includes each of the encoded non-differential CBs included in the extracted encoded non-differential data 505. The quantized WT coefficients are recovered.

以後、係数ビットモデリング部313で生成される量子化差分WT係数の群を、第2量子化差分WT係数データと呼ぶことがある。第2量子化差分WT係数データは差分CBで構成されている。また、係数ビットモデリング部313で生成される、量子化WT係数の群を、第2量子化ウェーブレット係数データと呼ぶことがある。第2量子化ウェーブレット係数データは非差分CBで構成されている。そして、第2量子化差分WT係数データと第2量子化ウェーブレット係数データを総称して、量子化係数データと呼ぶことがある。   Hereinafter, a group of quantized differential WT coefficients generated by the coefficient bit modeling unit 313 may be referred to as second quantized differential WT coefficient data. The second quantized differential WT coefficient data is composed of the differential CB. Also, a group of quantized WT coefficients generated by the coefficient bit modeling unit 313 may be referred to as second quantized wavelet coefficient data. The second quantized wavelet coefficient data is composed of non-differential CB. Then, the second quantization difference WT coefficient data and the second quantization wavelet coefficient data may be collectively referred to as quantization coefficient data.

逆量子化部314は、復号化部311で生成される量子化係数データに対して逆量子化を行う。ここでの逆量子化は、図5の量子化部225における量子化とは逆の処理にあたる。逆量子化によって、第2量子化差分WT係数データは差分WT係数データに変換される。また逆量子化によって、第2量子化ウェーブレット係数データは第2ウェーブレット係数データに変換される。差分WT係数データに含まれる量子化された差分WT係数を、単に差分WT係数と呼ぶことがある。   The inverse quantization unit 314 performs inverse quantization on the quantization coefficient data generated by the decoding unit 311. The inverse quantization here corresponds to the process opposite to the quantization in the quantization unit 225 of FIG. The second quantization differential WT coefficient data is converted into differential WT coefficient data by inverse quantization. In addition, the second quantization wavelet coefficient data is converted to second wavelet coefficient data by inverse quantization. The quantized differential WT coefficients included in the differential WT coefficient data may be simply referred to as differential WT coefficients.

逆量子化部314は、差分WT係数データを生成すると、それを復号化データ521として出力する。また逆量子化部314は、第2ウェーブレット係数データを生成すると、それを復号化データ521として出力する。以後、差分WT係数データを復号化差分データ521と呼び、第2ウェーブレット係数データを復号化非差分データ521と呼ぶことがある。また、復号化差分データ521に含まれるコードブロックを復号化差分CBと呼び、復号化非差分データ521に含まれるコードブロックを復号化非差分CBと呼ぶことがある。   When the inverse quantization unit 314 generates differential WT coefficient data, the inverse quantization unit 314 outputs it as decoded data 521. Further, when the second quantization coefficient data is generated, the inverse quantization unit 314 outputs it as decoded data 521. Hereinafter, the difference WT coefficient data may be referred to as decoded difference data 521, and the second wavelet coefficient data may be referred to as decoded non-difference data 521. Also, a code block included in the decoded difference data 521 may be referred to as a decoded difference CB, and a code block included in the decoded non-difference data 521 may be referred to as a decoded non-difference CB.

<データ処理部の詳細説明>
図24はデータ処理部32の構成の一例を示す図である。図24に示されるように、データ処理部32は、認識用データ生成部320、第1処理部321、第2処理部322、第1メモリ323、第2メモリ324、選択部325及び復元部326を備える。第1メモリ323は、第1処理部321によってデータの読み出し及び書き込みが行われる。第2メモリ324は、復号化装置31から出力される符号化データ505を記憶する。第2メモリ324内のデータは第2処理部322によって読み出される。
<Detailed Description of Data Processing Unit>
FIG. 24 is a diagram showing an example of the configuration of the data processing unit 32. As shown in FIG. As shown in FIG. 24, the data processing unit 32 includes a recognition data generation unit 320, a first processing unit 321, a second processing unit 322, a first memory 323, a second memory 324, a selection unit 325, and a restoration unit 326. Equipped with In the first memory 323, reading and writing of data are performed by the first processing unit 321. The second memory 324 stores the encoded data 505 output from the decoding device 31. The data in the second memory 324 is read by the second processing unit 322.

<選択部>
選択部325は、データ処理部32に入力される復号化データ521を、第1処理部321に入力するか、復元部326に入力するかを選択する。選択部325は、データ処理部32に復号化差分データ521が入力される場合には、それを復元部326に入力する。一方で、選択部325は、データ処理部32に復号化非差分データ521が入力される場合には、それを第1処理部321に入力する。第1処理部321は、入力される復号化非差分データ521を第1メモリ323に記憶する。これにより、第1メモリ323には、ゲートウェイ3で復元された、非差分階層化データ501に含まれる非差分CBが記憶される。
<Selection section>
The selection unit 325 selects whether the decoded data 521 input to the data processing unit 32 is input to the first processing unit 321 or to the restoration unit 326. When the decoding difference data 521 is input to the data processing unit 32, the selection unit 325 inputs the decoded difference data 521 to the restoration unit 326. On the other hand, when the decoding non-difference data 521 is input to the data processing unit 32, the selection unit 325 inputs it to the first processing unit 321. The first processing unit 321 stores the input decoded non-difference data 521 in the first memory 323. Thus, the first memory 323 stores the non-differential CB included in the non-differential hierarchical data 501 restored by the gateway 3.

<復元部>
復元部326は、復号化差分データ521に含まれる各復号化差分CBについて、当該復号化差分CBに対応する、非差分階層化データ501に含まれる非差分CBを復元する。
<Restoration unit>
The restoration unit 326 restores, for each decoded difference CB included in the decoded difference data 521, the non-difference CB included in the non-difference layered data 501 corresponding to the decoded difference CB.

ここで、ある座標の復号化差分CBは、上述の説明から理解できるように、現階層化データ501での当該ある座標のコードブロックから、過去階層化データ501における当該ある座標のコードブロックを差し引いて得られるデータである。現階層化データ501のコードブロックを現非差分CBとし、過去階層化データ501のコードブロックを過去非差分CBとすると、座標(i,j)の復号化差分CBは、座標(i,j)の現非差分CBから座標(i,j)の過去非差分CBを差し引いて得られるデータである。復元部326は、座標(i,j)の復号化差分CBに対して、第1メモリ323に記憶されている、座標(i,j)の過去非差分CBを足し合わせることによって、座標(i,j)の現非差分CBを復元する。復元部326は、第1処理部321から、第1メモリ323内の過去非差分CBを受け取る。復元部326は、復号化差分データ521に含まれる各復号化差分CBから現非差分CBを復元する。復元された現非差分CBは、第1処理部321によって第1メモリ323に記憶される。   Here, as can be understood from the above description, the decoding difference CB of a certain coordinate subtracts the code block of the certain coordinate in the past hierarchical data 501 from the code block of the certain coordinate in the current hierarchical data 501. Data obtained by Assuming that the code block of the current hierarchical data 501 is a current non-differential CB and the code block of the past hierarchical data 501 is a past non-differential CB, the decoded differential CB of coordinates (i, j) is coordinates (i, j) Is a data obtained by subtracting the past non-difference CB of coordinates (i, j) from the current non-difference CB of. The restoration unit 326 adds the past non-difference CB of the coordinates (i, j) stored in the first memory 323 to the decoded difference CB of the coordinates (i, j) to obtain the coordinates (i, j). , J) are restored. The restoration unit 326 receives the past non-differential CB in the first memory 323 from the first processing unit 321. The restoration unit 326 restores the current non-difference CB from each decoding difference CB included in the decoding difference data 521. The restored current non-differential CB is stored in the first memory 323 by the first processing unit 321.

復元部326は、座標(i,j)の復号化差分CBから座標(i,j)の現非差分CBを復元する場合には、座標(i,j)の復号化差分CBでの座標(x,y)に位置する差分WT係数に対して、座標(i,j)の過去非差分CBにおける座標(x.y)に位置するウェーブレット係数を足し合わせる。そして、復元部326は、それによって得られた値を、座標(i,j)の現非差分CBでの座標(x,y)に位置する係数の値とする。復元部326は、座標(i,j)の復号化差分CBに含まれる各差分WT係数について同様の処理を行う。これにより、座標(i,j)の現非差分CBの各ウェーブレット係数が復元される。復元部326で復元された、現非差分CBの各ウェーブレット係数は、第1処理部321に入力される。第1処理部321は、現非差分CBの各ウェーブレット係数を第1メモリ323に記憶する。第1メモリ323内のウェーブレット係数は、後のフレームにおいて、過去非差分CBのウェーブレット係数として使用される。   When the restoration unit 326 restores the current non-differential CB of the coordinate (i, j) from the decoded difference CB of the coordinate (i, j), the coordinate (i, j) at the decoded differential CB The wavelet coefficients located at coordinates (x, y) in the past non-difference CB of coordinates (i, j) are added to the differential WT coefficients located at x, y). Then, the restoration unit 326 takes the value obtained thereby as the value of the coefficient located at the coordinates (x, y) at the current non-difference CB of the coordinates (i, j). The restoration unit 326 performs the same process on each difference WT coefficient included in the decoded difference CB at the coordinates (i, j). Thereby, each wavelet coefficient of the current non-difference CB of the coordinates (i, j) is restored. The wavelet coefficients of the current non-difference CB restored by the restoration unit 326 are input to the first processing unit 321. The first processing unit 321 stores the wavelet coefficients of the current non-difference CB in the first memory 323. The wavelet coefficients in the first memory 323 are used as wavelet coefficients of the past non-differential CB in a later frame.

<認識用データ生成部>
図25は認識用データ生成部320の構成の一例を示す図である。図25に示されるように、認識用データ生成部320は、逆ウェーブレット変換部3201、色空間変換部3202及びDCレベルシフト部3203を備えている。
<Recognition data generation unit>
FIG. 25 is a diagram showing an example of the configuration of the recognition data generation unit 320. As shown in FIG. As shown in FIG. 25, the recognition data generation unit 320 includes an inverse wavelet transform unit 3201, a color space conversion unit 3202, and a DC level shift unit 3203.

逆ウェーブレット変換部3201は、ウェーブレット係数から成る入力データに対して逆ウェーブレット変換(詳細には逆離散ウェーブレット変換)を行う。   The inverse wavelet transform unit 3201 performs inverse wavelet transform (specifically, inverse discrete wavelet transform) on input data composed of wavelet coefficients.

ここで、認識用データ生成部320には、第1処理部321で生成される逆変換非対象データ531及び逆変換対象データ532が入力される。逆変換非対象データ531は、逆ウェーブレット変換部3201で逆ウェーブレット変換されないデータである。逆変換非対象データ531は、例えば、現階層化データ501の1つのサブバンドのウェーブレット係数だけで構成される。逆変換非対象データ531は、例えば、現階層化データ501のLL3サブバンドのウェーブレット係数だけで構成される。また逆変換非対象データ531は、例えば、現階層化データ501のHH3サブバンドのウェーブレット係数で構成される。また逆変換非対象データ531は、例えば、現階層化データ501のHL1サブバンドのウェーブレット係数で構成される。逆変換非対象データ531は、逆ウェーブレット変換できないデータであると言える。   Here, the inverse conversion non-target data 531 and the inverse conversion target data 532 generated by the first processing unit 321 are input to the recognition data generation unit 320. The inverse transform non-target data 531 is data that is not inverse wavelet transformed by the inverse wavelet transform unit 3201. The inverse transformation non-target data 531 is constituted of only wavelet coefficients of one sub-band of the current hierarchical data 501, for example. The inverse transformation non-target data 531 is composed of only wavelet coefficients of the LL3 sub-band of the current hierarchical data 501, for example. Further, the inverse transformation non-target data 531 is configured by, for example, wavelet coefficients of the HH3 sub-band of the current hierarchical data 501. Further, the inverse transformation non-target data 531 is configured by, for example, wavelet coefficients of the HL1 sub-band of the current hierarchical data 501. It can be said that the inverse transform non-target data 531 is data that can not be inverse wavelet transform.

一方で、逆変換対象データ532は、逆ウェーブレット変換可能なデータであって、逆ウェーブレット変換部3201で逆ウェーブレット変換される。逆変換対象データ532は、例えば、現階層化データ501での同じ分解レベルのLLサブバンド、LHサブバンド、HLサブバンド及びHHサブバンドのウェーブレット係数だけで構成される。また逆変換対象データ532は、例えば、現階層化データ501での同じ分解レベルのLHサブバンド、HLサブバンド及びHHサブバンドのウェーブレット係数と、それと同じ分解レベルのLLバンドを復元可能な、それよりも下の分解レベルの複数のサブバンドのウェーブレット係数とだけで構成される。   On the other hand, the inverse transform target data 532 is data that can be inverse wavelet transformed, and is inverse wavelet transformed by the inverse wavelet transformer 3201. The inverse transformation target data 532 includes, for example, only wavelet coefficients of the LL subband, LH subband, HL subband and HH subband at the same decomposition level in the current hierarchical data 501. Further, the inverse transformation target data 532 can be, for example, wavelet coefficients of the same decomposition level in the current hierarchical data 501, wavelet coefficients of the HL subband and the HH subband, and LL bands of the same decomposition level, It consists only of wavelet coefficients of multiple sub-bands of lower decomposition level.

逆ウェーブレット変換部3201は、逆変換対象データ532に含まれるウェーブレット係数の分解レベルのうちの最も低い分解レベルが1でない場合には、その最も低い分解レベルよりも一つ下の分解レベルのLLサブバンドのウェーブレット係数が得られるように、逆変換対象データ532に対して逆ウェーブレット変換を行う。一方で、逆ウェーブレット変換部3201は、逆変換対象データ532に含まれるウェーブレット係数の分解レベルのうちの最も低い分解レベルが1である場合には、原画の画素値が得られるように、逆変換対象データ532に対して逆ウェーブレット変換を行う。   When the lowest decomposition level among the decomposition levels of wavelet coefficients included in the inverse conversion target data 532 is not 1, the inverse wavelet transformation unit 3201 generates LL subdivisions of the decomposition level one lower than the lowest decomposition level. Inverse wavelet transform is performed on the inverse transform target data 532 so as to obtain band wavelet coefficients. On the other hand, the inverse wavelet transform unit 3201 performs inverse transformation so that the pixel value of the original image can be obtained when the lowest decomposition level among the decomposition levels of wavelet coefficients included in the inverse transformation target data 532 is 1. Inverse wavelet transform is performed on the target data 532.

例えば、逆変換対象データ532が、分解レベル3のLL3サブバンド、LH3サブバンド、HL3サブバンド及びHH3サブバンドのウェーブレット係数で構成されている場合を考える。この場合には、逆ウェーブレット変換部3201では、分解レベル2のLL2サブバンドのウェーブレット係数が得られる。   For example, it is assumed that the inverse transformation target data 532 is composed of wavelet coefficients of the LL3 subband, the LH3 subband, the HL3 subband, and the HH3 subband of the decomposition level 3. In this case, in the inverse wavelet transform unit 3201, wavelet coefficients of the LL2 sub-band of the decomposition level 2 are obtained.

また、逆変換対象データ532が、分解レベル2のLH2サブバンド、HL2サブバンド及びHH2サブバンドのウェーブレット係数と、分解レベル3のLL3サブバンド、LH3サブバンド、HL3サブバンド及びHH3サブバンドのウェーブレット係数とで構成されている場合を考える。この場合には、逆ウェーブレット変換部3201では、分解レベル1のLL1サブバンドのウェーブレット係数が得られる。分解レベル3のLL3サブバンド、LH3サブバンド、HL3サブバンド及びHH3サブバンドは、分解レベル2のLL2サブバンドを復元可能なサブバンドである。   Also, inverse transform target data 532 includes wavelet coefficients of LH2 subband, HL2 subband and HH2 subband at decomposition level 2, and wavelet of LL3 subband, LH3 subband, HL3 subband and HH3 subband at decomposition level 3. Consider the case of being composed of coefficients. In this case, in the inverse wavelet transform unit 3201, wavelet coefficients of the LL1 sub-band of the decomposition level 1 are obtained. The LL3 sub-band, the LH3 sub-band, the HL3 sub-band and the HH3 sub-band of the decomposition level 3 are sub-bands capable of recovering the LL2 sub-band of the decomposition level 2.

また、逆変換対象データ532が、分解レベル1のLH1サブバンド、HL1サブバンド及びHH1サブバンドのウェーブレット係数と、分解レベル2のLH2サブバンド、HL2サブバンド及びHH2サブバンドと分解レベル3のLL3サブバンド、LH3サブバンド、HL3サブバンド及びHH3サブバンドのウェーブレット係数とで構成されている場合を考える。この場合には、逆ウェーブレット変換部3201では、原画(フレーム画像)の画素値が得られる。分解レベル2のLH2サブバンド、HL2サブバンド及びHH2サブバンドと分解レベル3のLL3サブバンド、LH3サブバンド、HL3サブバンド及びHH3サブバンドは、分解レベル1のLL1サブバンドを復元可能なサブバンドである。   In addition, inverse transformation target data 532 includes wavelet coefficients of LH1 subband, HL1 subband and HH1 subband at decomposition level 1, LH2 subband of HL2 decomposition level, HL2 subband and HH2 subband, and LL3 of decomposition level 3. A case is considered where it is composed of wavelets of subbands, LH3 subbands, HL3 subbands and HH3 subbands. In this case, the inverse wavelet transform unit 3201 obtains pixel values of the original image (frame image). The LH2 subband, the HL2 subband and the HH subband at decomposition level 2 and the LL3 subband, the LH3 subband, the HL3 subband and the HH3 subband at decomposition level 3 are subbands capable of restoring the LL1 subband at decomposition level 1 It is.

逆ウェーブレット変換部3201で生成されるLLサブバンドのウェーブレット係数は、LLデータ530として第1処理部321に出力される。つまり、逆ウェーブレット変換部3201で生成されるLL3サブバンドのウェーブレット係数、LL2サブバンドのウェーブレット係数及びLL1サブバンドのウェーブレット係数は、それぞれLLデータ530として第1処理部321に入力される。   The wavelet coefficients of the LL sub-band generated by the inverse wavelet transform unit 3201 are output to the first processing unit 321 as LL data 530. That is, the wavelet coefficient of the LL3 subband, the wavelet coefficient of the LL2 subband, and the wavelet coefficient of the LL1 subband, which are generated by the inverse wavelet transform unit 3201, are input to the first processing unit 321 as the LL data 530, respectively.

ここで、ゲートウェイ3では、逆ウェーブレット変換部3201から出力されるウェーブレット係数が画素値として取り扱われる。したがって、逆ウェーブレット変換部3201からは、複数の画素値を含む画像データが出力されると言える。また、逆変換非対象データ531に含まれるウェーブレット係数も画素値として取り扱われる。したがって、逆変換非対象データ531は一種の画像データであると言える。   Here, in the gateway 3, wavelet coefficients output from the inverse wavelet transform unit 3201 are treated as pixel values. Therefore, it can be said that the inverse wavelet transform unit 3201 outputs image data including a plurality of pixel values. In addition, wavelet coefficients included in the inverse transformation non-target data 531 are also treated as pixel values. Therefore, it can be said that the inverse conversion non-target data 531 is a kind of image data.

色空間変換部3202は、逆ウェーブレット変換部3201から出力される画像データに対して、図5の色空間変換部222での処理と逆の処理を行う。また色空間変換部3202は、認識用データ生成部320に入力される逆変換非対象データ531(画像データ)に対して、色空間変換部222での処理と逆の処理を行う。DCレベルシフト部3203は、色空間変換部3202から出力される画像データのDCレベルを必要に応じて変換する。DCレベルシフト部3203から出力される画像データが認識用データ522となる。   The color space conversion unit 3202 performs processing reverse to that of the color space conversion unit 222 in FIG. 5 on the image data output from the inverse wavelet conversion unit 3201. The color space conversion unit 3202 performs processing reverse to the processing in the color space conversion unit 222 on the inverse conversion non-target data 531 (image data) input to the recognition data generation unit 320. The DC level shift unit 3203 converts the DC level of the image data output from the color space conversion unit 3202 as necessary. The image data output from the DC level shift unit 3203 is the recognition data 522.

以上の説明から理解できるように、認識用データ522は、復元された、画像データ500の少なくとも一部、あるいは復元された、現階層化データ501のサブバンドの少なくとも一部となる。よって、認識用データ522が示す認識対象画像は、フレーム画像(サブバンド分割されていないフレーム画像)の少なくとも一部、あるいはサブバンド画像の少なくとも一部を示す。   As can be understood from the above description, the recognition data 522 is at least part of the restored image data 500 or at least part of the restored subbands of the current hierarchical data 501. Therefore, the recognition target image indicated by the recognition data 522 indicates at least a part of a frame image (frame image which is not divided into sub-bands) or at least a part of sub-band images.

<第1処理部>
第1処理部321は、データ書き込み処理、マスク生成処理、入力データ生成処理及び指示情報生成処理を行う。
<First processing unit>
The first processing unit 321 performs data writing processing, mask generation processing, input data generation processing, and instruction information generation processing.

<データ書き込み処理>
第1処理部321は、選択部325から入力される復号化非差分データ521を第1メモリ323に記憶する。また第1処理部321は、復元部326から入力される、復元された現非差分CBを第1メモリ323に記憶する。また第1処理部321は、認識用データ生成部320から入力されるLLデータ530を第1メモリ323に記憶する。
<Data writing process>
The first processing unit 321 stores, in the first memory 323, the decoded non-difference data 521 input from the selection unit 325. Further, the first processing unit 321 stores the restored current non-difference CB, which is input from the restoration unit 326, in the first memory 323. Further, the first processing unit 321 stores the LL data 530 input from the recognition data generation unit 320 in the first memory 323.

<マスク生成処理>
第1処理部321は、画像認識部33から出力される認識結果情報523に基づいてマスクデータ525を生成する。
<Mask generation processing>
The first processing unit 321 generates mask data 525 based on the recognition result information 523 output from the image recognition unit 33.

ここで、画像認識部33は、認識用データ522が示す認識対象画像から検出対象物を検出すると、検出対象物が検出されたことを示す検出情報を含む認識結果情報523を出力する。一方、画像認識部33は、認識対象画像から検出対象物が検出できなかったときには、検出対象物が検出されなかったことを示す未検出情報を含む認識結果情報523を出力する。   Here, when the image recognition unit 33 detects a detection target from the recognition target image indicated by the recognition data 522, the image recognition unit 33 outputs recognition result information 523 including detection information indicating that the detection target has been detected. On the other hand, when the detection target is not detected from the recognition target image, the image recognition unit 33 outputs the recognition result information 523 including undetected information indicating that the detection target is not detected.

第1処理部321は、検出情報を含む認識結果情報523を受け取ると、対象フレーム画像において、画像認識部33で検出された検出対象物が写る検出対象物画像を特定する。第1処理部321は、座標メモリ36内の座標テーブル36aに基づいて検出対象物画像を特定することができる。第1処理部321は、対象フレーム画像において、特定した検出対象物画像をROIとし、それ以外の領域を非ROIとする。画像認識部33が、対象フレーム画像から複数の検出対象物を検出した場合には、対象フレーム画像において、当該複数の検出対象物がそれぞれ映る複数の検出対象物画像がROIとされる。   When receiving the recognition result information 523 including the detection information, the first processing unit 321 specifies a detection target object image in which the detection target object detected by the image recognition unit 33 is captured in the target frame image. The first processing unit 321 can specify the detection target image based on the coordinate table 36 a in the coordinate memory 36. The first processing unit 321 sets the identified detection target image as an ROI in the target frame image, and sets the other region as a non-ROI. When the image recognition unit 33 detects a plurality of detection target objects from the target frame image, a plurality of detection target object images in which the plurality of detection target objects respectively appear in the target frame image are set as ROIs.

第1処理部321は、対象フレーム画像においてROIと非ROIとを判別するための使用マスクを生成する。この使用マスクは、上述の図14に示される差分フレームマスク5120と同様に、ウェーブレット平面に対応するマスクである。使用マスクは、対象フレーム画像全体をウェーブレット変換して得られるウェーブレット平面において、ROIに関与するウェーブレット係数(ROI係数と呼ぶ)と、非ROIに関与するウェーブレット係数(非ROI係数と呼ぶ)とを判別するためのマスクであると言える。使用マスクは、差分フレームマスク5120と同様に、ウェーブレット平面に含まれる各サブバンド用のマスクの集合体として把握できる。第1処理部321は、生成した使用マスクのデータをマスクデータ525としてトランスコーダ34に入力する。   The first processing unit 321 generates a use mask for determining an ROI and a non-ROI in the target frame image. This use mask is a mask corresponding to the wavelet plane, similar to the differential frame mask 5120 shown in FIG. 14 described above. The mask used distinguishes wavelet coefficients (referred to as ROI coefficients) involved in the ROI and wavelet coefficients (referred to as non-ROI coefficients) involved in the non-ROI in the wavelet plane obtained by wavelet transforming the entire target frame image. It can be said that it is a mask to The used mask can be grasped as an aggregate of masks for each sub-band included in the wavelet plane, similarly to the differential frame mask 5120. The first processing unit 321 inputs the generated data of the used mask as the mask data 525 to the transcoder 34.

なお、使用マスクは、対象フレーム画像の一部だけをウェーブレット変換して得られるウェーブレット平面においてROI係数と非ROI係数とを判別するためのマスクであってもよい。   The mask used may be a mask for discriminating between the ROI coefficient and the non-ROI coefficient in the wavelet plane obtained by wavelet transformation of only a part of the target frame image.

また上記の例では、第1処理部321は、画像認識処理で検出された検出対象物の画像をROIとしたが、対象フレーム画像のうちの他の部分をROIとすることもできる。第1処理部321は、対象フレーム画像においてROIを自由に設定することができる。例えば、第1処理部321は、対象フレーム画像において、クラウドサーバ5が指定する部分をROIとすることもできる。   In the above-described example, the first processing unit 321 sets the image of the detection target detected in the image recognition process as the ROI, but may use another part of the target frame image as the ROI. The first processing unit 321 can freely set the ROI in the target frame image. For example, the first processing unit 321 may set a portion designated by the cloud server 5 as the ROI in the target frame image.

<入力データ生成処理>
第1処理部321は、第1メモリ323内のデータを使用して、認識用データ生成部320に入力される入力データである逆変換非対象データ531及び逆変換対象データ532を生成する。第1処理部321は、認識対象画像をどのような画像にするかを決定し、それに応じて逆変換非対象データ531あるいは逆変換対象データ532を生成する。第1処理部321は、例えば、LL3サブバンド画像全体を認識対象画像とする場合には、現階層化データ501のLL3サブバンドで構成される逆変換非対象データ531を生成して認識用データ生成部320に入力する。また第1処理部321は、LL2サブバンド画像全体を認識対象画像とする場合には、現階層化データ501のLL3サブバンド、LH3サブバンド、HL3サブバンド及びHH3サブバンドで構成される逆変換対象データ532を生成して認識用データ生成部320に入力する。認識対象画像をどのような画像にするかについては、過去の認識結果情報523、検出対象物の種類及びIoT端末2のカメラ20の撮影範囲等に基づいて決定される。
<Input data generation process>
The first processing unit 321 uses the data in the first memory 323 to generate inverse conversion non-target data 531 and inverse conversion target data 532 which are input data input to the recognition data generation unit 320. The first processing unit 321 determines what kind of image the recognition target image is to be, and generates inverse conversion non-target data 531 or inverse conversion target data 532 accordingly. For example, when the entire LL3 sub-band image is to be recognized as a recognition target image, the first processing unit 321 generates inverse conversion non-target data 531 configured by the LL3 sub-band of the current hierarchical data 501, and uses the recognition data The data is input to the generation unit 320. When the first processing unit 321 sets the entire LL2 subband image as a recognition target image, the first processing unit 321 is an inverse transform composed of the LL3 subband, the LH3 subband, the HL3 subband, and the HH3 subband of the current hierarchical data 501. The target data 532 is generated and input to the recognition data generation unit 320. The image to be recognized is determined based on the past recognition result information 523, the type of detection object, the shooting range of the camera 20 of the IoT terminal 2, and the like.

<指示情報生成処理>
第1処理部321は、認識結果情報523等に基づいて、IoT端末2が送信すべきデータを決定し、決定したデータ(指定データ)を送信することを指示するための指示情報520を生成する。第1処理部321は、IoT端末2が送信すべきデータとして差分CBを指定する場合には、差分送信指示情報520を生成する。一方で、第1処理部321は、IoT端末2が送信すべきデータとして非差分CBを指定する場合には、非差分送信指示情報520を生成する。
<Instruction information generation process>
The first processing unit 321 determines data to be transmitted by the IoT terminal 2 based on the recognition result information 523 and the like, and generates instruction information 520 for instructing to transmit the determined data (designated data). . The first processing unit 321 generates difference transmission instruction information 520 when specifying the difference CB as data to be transmitted by the IoT terminal 2. On the other hand, the first processing unit 321 generates the non-differential transmission instruction information 520 when designating the non-differential CB as the data to be transmitted by the IoT terminal 2.

<第2処理部>
第2処理部322は、第1メモリ323から読み出したデータに基づいて、トランスコーダ用復号化データ526を生成する。本例では、第1処理部321で生成されるマスクデータ525が対象フレーム画像全体をウェーブレット変換して得られる最大分解レベルのウェーブレット平面に対応していることから、第2処理部322は、例えば、第1メモリ323から、当該最大分解レベルのウェーブレット平面を構成する複数のウェーブレット係数、つまり第1ウェーブレット係数データを読み出す。第1ウェーブレット係数データは対象フレーム画像全体を示すデータである。そして第2処理部322は、読み出した第1ウェーブレット係数データをトランスコーダ用復号化データ526としてトランスコーダ34に出力する。
<Second processing unit>
The second processing unit 322 generates transcoder decoded data 526 based on the data read from the first memory 323. In this example, since the mask data 525 generated by the first processing unit 321 corresponds to the wavelet plane of the maximum decomposition level obtained by wavelet transformation of the entire target frame image, the second processing unit 322 The first memory 323 reads a plurality of wavelet coefficients constituting the wavelet plane of the maximum decomposition level, that is, first wavelet coefficient data. The first wavelet coefficient data is data indicating the entire target frame image. Then, the second processing unit 322 outputs the read first wavelet coefficient data as transcoder decoded data 526 to the transcoder 34.

なおマスクデータ525が、対象フレーム画像の一部に対応するデータである場合には、当該一部を復元するための複数のウェーブレット係数を第1メモリ323から読み出して、読み出した複数のウェーブレット係数をトランスコーダ用復号化データ526としてもよい。   If the mask data 525 is data corresponding to a part of the target frame image, a plurality of wavelet coefficients for restoring the part are read from the first memory 323, and the plurality of read wavelet coefficients are read. It may be the decoded data 526 for transcoder.

また第2処理部322は、第2メモリ324から読み出したデータに基づいて、トランスコーダ用符号化データ527を生成する。第2処理部322は、例えば、第2メモリ324から、最大分解レベルのウェーブレット平面を構成する複数の符号化非差分CB、つまり符号化された第1量子化ウェーブレット係数データを読み出す。最大分解レベルのウェーブレット平面を構成する複数の符号化非差分CBは、対象フレーム画像全体を復元するための複数の符号化非差分CBであると言える。そして第2処理部322は、読み出した複数の符号化非差分CBをトランスコーダ用符号化データ527としてトランスコーダ34に出力する。   The second processing unit 322 also generates transcoder encoded data 527 based on the data read from the second memory 324. For example, the second processing unit 322 reads, from the second memory 324, a plurality of encoded non-differential CBs constituting the wavelet plane of the maximum decomposition level, that is, encoded first quantized wavelet coefficient data. It can be said that the plurality of coded non-differential CBs constituting the wavelet plane of the maximum decomposition level are the plurality of coded non-differential CBs for restoring the entire target frame image. Then, the second processing unit 322 outputs the plurality of read encoded non-differential CBs as transcoder encoded data 527 to the transcoder 34.

なお第2処理部322は、第2メモリ324から、対象フレーム画像の一部を復元するための複数の符号化非差分CBを読み出して、読み出した複数の符号化非差分CBをトランスコーダ用符号化データ527としてもよい。   The second processing unit 322 reads a plurality of coded non-differential CBs for restoring a part of the target frame image from the second memory 324, and reads the plurality of read coded non-differential CBs for a transcoder. Alternatively, the conversion data 527 may be used.

<画像認識部の詳細説明>
図26は画像認識部33の構成の一例を示す図である。図27は画像認識部33の動作を示す図である。図26に示されるように、画像認識部33は、前処理部330及び画像認識エンジン334を備える。前処理部330は、メモリ331、分離部332及び正規化部333を備える。
<Detailed Description of Image Recognition Unit>
FIG. 26 shows an example of the configuration of the image recognition unit 33. As shown in FIG. FIG. 27 shows the operation of the image recognition unit 33. As shown in FIG. As shown in FIG. 26, the image recognition unit 33 includes a preprocessing unit 330 and an image recognition engine 334. The preprocessing unit 330 includes a memory 331, a separation unit 332, and a normalization unit 333.

メモリ331は、データ処理部32からの認識用データ522を記憶する(図27の<データ記憶>を参照)。分離部332は、メモリ331内の認識用データ522が示す認識対象画像600から複数の部分画像601を選択する(図27の<選択>を参照)。図27の例では、各部分画像601は、少なくとも一つの他の部分画像601と重なっている。そして分離部332は、選択した複数の部分画像601を互いに分離する(図27の<分離>を参照)。正規化部333は、分離部332で分離された複数の部分画像601のそれぞれを正規化して、複数の正規化部分画像602を生成する(図27の<正規化>を参照)。正規化部333で生成された各正規化部分画像602を示すデータが画像認識エンジン334に入力される。   The memory 331 stores the recognition data 522 from the data processing unit 32 (see <data storage> in FIG. 27). The separation unit 332 selects a plurality of partial images 601 from the recognition target image 600 indicated by the recognition data 522 in the memory 331 (see <selection> in FIG. 27). In the example of FIG. 27, each partial image 601 overlaps with at least one other partial image 601. Then, the separation unit 332 separates the plurality of selected partial images 601 from one another (see <separation> in FIG. 27). The normalization unit 333 normalizes each of the plurality of partial images 601 separated by the separation unit 332 to generate a plurality of normalized partial images 602 (see <Normalization> in FIG. 27). Data indicating each normalized partial image 602 generated by the normalization unit 333 is input to the image recognition engine 334.

画像認識エンジン334は、前処理部330から入力されるデータに基づいて、各正規化部分画像602に対して画像認識処理を行う。画像認識エンジン334は、例えば、入力された複数の正規化部分画像602の少なくとも一つから検出対象物が検出されると、検出情報を含む認識結果情報523をデータ処理部32に入力する。一方で、画像認識エンジン334は、入力された複数の正規化部分画像602のすべてから検出対象物が検出されないときには、非検出情報を含む認識結果情報523をデータ処理部32に入力する。また画像認識エンジン334は、検出した検出対象物に関する対象物情報を含む認識結果情報524を生成して通信部35に入力する。例えば、検出対象物が人である場合、対象物情報には、例えば、検出された人の性別及び年齢等が含まれる。また対象物情報には、カメラ20の撮影範囲内での検出対象物の位置を示す情報が含まれてもよい。対象物情報に含まれる情報は、画像認識エンジンが画像認識によって特定できる情報に依存する。通信部35は、認識結果情報524を含むメタデータをクラウドサーバ5に送信する。なお、認識結果情報524は認識結果情報523と同じであってもよい。   The image recognition engine 334 performs an image recognition process on each normalized partial image 602 based on the data input from the pre-processing unit 330. For example, when a detection target is detected from at least one of the plurality of input normalized partial images 602, the image recognition engine 334 inputs recognition result information 523 including detection information to the data processing unit 32. On the other hand, when the detection target is not detected from all of the plurality of input normalized partial images 602, the image recognition engine 334 inputs the recognition result information 523 including non-detection information to the data processing unit 32. Further, the image recognition engine 334 generates recognition result information 524 including target object information related to the detected detection target and inputs it to the communication unit 35. For example, when the detection target is a person, the object information includes, for example, the gender and age of the detected person. The object information may also include information indicating the position of the detection object within the imaging range of the camera 20. The information contained in the object information depends on the information that the image recognition engine can specify by image recognition. The communication unit 35 transmits metadata including the recognition result information 524 to the cloud server 5. The recognition result information 524 may be the same as the recognition result information 523.

画像認識エンジン334が正規化部分画像602から検出対象物を検出する方法としては、様々な方法が考えられる。例えば、画像認識エンジン334は、正規化部分画像602から、検出対象物の特徴を示す特徴量を抽出する。この特徴量としては、例えば、エッジ、カラー、Haar−like、HOG(Histogram of Oriented Gradients)あるいはLBP(Local Binary Pattern)などが考えられる。画像認識エンジン334は、特徴量を抽出すると、当該画像認識エンジン334が備える識別器に対して、抽出した特徴量を入力する。識別器は、入力される特徴量に基づいて、正規化部分画像602に検出対象物画像が存在するか否かを判定し、その判定結果を出力する。識別器としては、例えば、ニューラルネットワーク、SVM(Support Vector Machine)あるいはAdaboostが使用される。なお、画像認識エンジン334は、正規化部分画像602から複数種類の特徴量を抽出し、抽出した複数種類の特徴量に基づいて、正規化部分画像602に検出対象物画像が存在するか否かを判定してもよい。   Various methods can be considered as a method for the image recognition engine 334 to detect a detection target from the normalized partial image 602. For example, the image recognition engine 334 extracts, from the normalized partial image 602, a feature amount indicating the feature of the detection target. As this feature amount, for example, an edge, color, Haar-like, HOG (Histogram of Oriented Gradients) or LBP (Local Binary Pattern) can be considered. When the image recognition engine 334 extracts the feature amount, the image recognition engine 334 inputs the extracted feature amount to the classifier included in the image recognition engine 334. The discriminator determines whether or not a detection target image is present in the normalized partial image 602 based on the input feature amount, and outputs the determination result. As a classifier, for example, a neural network, SVM (Support Vector Machine) or Adaboost is used. The image recognition engine 334 extracts a plurality of types of feature amounts from the normalized partial image 602, and based on the extracted plurality of types of feature amounts, whether or not a detection target object image exists in the normalized partial image 602 May be determined.

また、画像認識部33は、正規化部分画像602から特徴量を抽出するのではなく、認識用データ522が示す認識対象画像600から特徴量を抽出してもよい。この場合には、例えば、画像認識部33は、抽出した特徴量に基づいて認識対象画像600から複数の部分画像601を選択し、選択した複数の部分画像601のそれぞれを正規化して、複数の正規化部分画像602を生成する。そして、画像認識部33は、認識対象画像600から抽出した特徴量において、各正規化部分画像602に対応する特徴量を特定し、特定した特徴量を識別器に入力する。   Further, the image recognition unit 33 may extract the feature amount from the recognition target image 600 indicated by the recognition data 522 instead of extracting the feature amount from the normalized partial image 602. In this case, for example, the image recognition unit 33 selects the plurality of partial images 601 from the recognition target image 600 based on the extracted feature amount, normalizes each of the plurality of selected partial images 601, and sets the plurality of partial images 601. A normalized partial image 602 is generated. Then, the image recognition unit 33 specifies a feature corresponding to each normalized partial image 602 in the feature extracted from the recognition target image 600, and inputs the specified feature to the classifier.

また画像認識エンジン334は、ディープラーニングのように、特徴量の抽出を行わずに検出対象物を検出することが可能な多層構造のニューラルネットワークを用いてもよい。   The image recognition engine 334 may use a neural network of a multilayer structure capable of detecting a detection target without performing extraction of feature amounts, as in deep learning.

<トランスコーダの詳細説明>
図28はトランスコーダ34の一例を示す図である。図28に示されるように、トランスコーダ34は、量子化部340、符号化部341及びビットストリーム生成部344を備える。トランスコーダ34は、入力されるデータをウェーブレット変換せずにビットストリームに変換して通信部35に入力する。
<Detailed Description of Transcoder>
FIG. 28 shows an example of the transcoder 34. As shown in FIG. As shown in FIG. 28, the transcoder 34 includes a quantization unit 340, an encoding unit 341, and a bit stream generation unit 344. The transcoder 34 converts the input data into a bit stream without wavelet transform and inputs the bit stream to the communication unit 35.

量子化部340は、データ処理部32から出力される、複数のウェーブレット係数から成るトランスコーダ用復号化データ526に対して、量子化ステップサイズに基づいて、スカラー量子化を行い、それにより第3量子化ウェーブレット係数データを生成する。このとき、量子化部340は、データ処理部32からのマスクデータ525に基づいて、トランスコーダ用復号化データ526の各ウェーブレット係数について、ROI係数と非ROI係数とを判別する。そして量子化部340は、量子化後の非ROI係数が0になるように、トランスコーダ用復号化データ526の各ウェーブレット係数の量子化を行う。これにより、第3量子化ウェーブレット係数データはROIだけを示すようになる。   The quantization unit 340 performs scalar quantization on the decoded data for transcoder 526 composed of a plurality of wavelet coefficients, which is output from the data processing unit 32, based on the quantization step size, thereby the third quantization process. Generate quantized wavelet coefficient data. At this time, the quantization unit 340 determines, based on the mask data 525 from the data processing unit 32, the ROI coefficient and the non-ROI coefficient for each wavelet coefficient of the transcoder decoded data 526. Then, the quantization unit 340 quantizes each wavelet coefficient of the transcoder decoded data 526 such that the non-ROI coefficient after quantization becomes 0. As a result, the third quantized wavelet coefficient data will show only the ROI.

符号化部341は、量子化部340によって生成された第3量子化ウェーブレット係数データの圧縮符号化を行って符号化データ590を生成する。符号化部341は、係数ビットモデリング部342及びエントロピー符号化部343を備える。   The encoding unit 341 compresses and encodes the third quantized wavelet coefficient data generated by the quantization unit 340 to generate encoded data 590. The encoding unit 341 includes a coefficient bit modeling unit 342 and an entropy encoding unit 343.

係数ビットモデリング部342は、第3量子化ウェーブレット係数データに対してビットモデリング処理を行う。このビットモデリング処理は、IoT端末2の係数ビットモデリング部241でのビットモデリング処理と同様である。エントロピー符号化部343は、係数ビットモデリング部342で生成されたデータに対してエントロピー符号化を行って、符号化データ590を生成する。符号化データ590は、マスクデータ525によって特定されるROIだけを示すデータである。本例では、符号化データ590は、検出対象物画像を示すデータである。エントロピー符号化としては、例えば算術符号化が利用される。なお符号化部341では、エントロピー符号化部343によって生成された符号化データ590に対してレート制御を行って、符号量を制御してもよい。   The coefficient bit modeling unit 342 performs bit modeling processing on the third quantized wavelet coefficient data. This bit modeling process is the same as the bit modeling process in the coefficient bit modeling unit 241 of the IoT terminal 2. The entropy coding unit 343 performs entropy coding on the data generated by the coefficient bit modeling unit 342 to generate coded data 590. The encoded data 590 is data indicating only the ROI specified by the mask data 525. In the present example, the encoded data 590 is data indicating an object image to be detected. For example, arithmetic coding is used as entropy coding. The encoding unit 341 may perform rate control on the encoded data 590 generated by the entropy encoding unit 343 to control the code amount.

ビットストリーム生成部344は、符号化データ590を含むビットストリーム529を生成する。具体的には、ビットストリーム生成部344は、符号化データ590をパケット化し、それによって生成されたパケットデータと付加情報を含むビットストリーム529を生成する。付加情報には、パケットヘッダ、レイヤー構成情報、スケーラビリティ情報及び量子化テーブルなどが含まれる。パケットヘッダには、零長パケット情報、コードブロックの包含情報、零ビットプレーン情報、符号化パス数情報及びコードブロックの符号量情報が含まれている。   The bitstream generation unit 344 generates a bitstream 529 including the encoded data 590. Specifically, the bit stream generation unit 344 packetizes the encoded data 590 and generates a bit stream 529 including packet data and additional information generated thereby. The additional information includes a packet header, layer configuration information, scalability information, and a quantization table. The packet header includes zero-length packet information, code block inclusion information, zero bit plane information, coding path number information, and code amount information of the code block.

またビットストリーム生成部344は、データ処理部32から出力されるトランスコーダ用符号化データ527を含むビットストリーム529を生成する。ビットストリーム生成部344は、トランスコーダ用符号化データ527をパケット化し、それによって生成されたパケットデータと付加情報を含むビットストリーム529を生成する。   Further, the bitstream generation unit 344 generates a bitstream 529 including transcoder encoded data 527 output from the data processing unit 32. The bitstream generator 344 packetizes the transcoder encoded data 527 and generates a bitstream 529 including packet data and additional information generated thereby.

ビットストリーム生成部344で生成されたビットストリーム529は、通信部35からクラウドサーバ5に送信される。ビットストリーム529が、ROIを示す符号化データ590を含む場合には、ゲートウェイ3はROIを示すデータをクラウドサーバ5に送信することができる。ゲートウェイ3はROIを自由に設定することができることから、例えばクラウドサーバ5が望むROIを、当該クラウドサーバ5に送信することができる。   The bit stream 529 generated by the bit stream generation unit 344 is transmitted from the communication unit 35 to the cloud server 5. If the bitstream 529 includes the encoded data 590 indicating the ROI, the gateway 3 can transmit the data indicating the ROI to the cloud server 5. The gateway 3 can freely set the ROI, so that, for example, the ROI desired by the cloud server 5 can be transmitted to the cloud server 5.

またビットストリーム529が、例えばフレーム画像全体を示すトランスコーダ用符号化データ527を含む場合には、ゲートウェイ3は、フレーム画像全体を示すデータをクラウドサーバ5に送信することができる。これにより、ゲートウェイ3は、クラウドサーバ5に対して、IoT端末2のカメラ20で撮影される動画をストリーミング送信することができる。ゲートウェイ3は、例えばクラウドサーバ5の要求に応じて、動画をストリーミング送信することができる。   In addition, when the bit stream 529 includes transcoder encoded data 527 indicating, for example, the entire frame image, the gateway 3 can transmit data indicating the entire frame image to the cloud server 5. Thereby, the gateway 3 can stream and transmit the moving image captured by the camera 20 of the IoT terminal 2 to the cloud server 5. The gateway 3 can stream and transmit a moving image, for example, in response to a request from the cloud server 5.

データ処理部32の第2処理部322は、クラウドサーバ5からの要求等に応じて、トランスコーダ用復号化データ526をトランスコーダ34に入力するか、トランスコーダ用符号化データ527をトランスコーダ34に入力するかを決定する。   The second processing unit 322 of the data processing unit 32 inputs the decoded data for transcoder 526 into the transcoder 34 in response to a request from the cloud server 5, etc. Decide if to enter.

通信部35は、画像認識処理で検出された検出対象物の画像がROIとされる場合には、符号化データ590を含むビットストリーム529と、検出対象物に関する対象物情報を含む認識結果情報524とを、クラウドサーバ5に送信する。   When the image of the detection object detected by the image recognition process is set as the ROI, the communication unit 35 recognizes the bitstream 529 including the encoded data 590 and the recognition result information 524 including the object information on the detection object. And to the cloud server 5.

このように、トランスコーダ34には、ウェーブレット変換後のデータであるトランスコーダ用復号化データ516及びトランスコーダ用符号化データ527が入力される。したがって、トランスコーダ34は、IoT端末2とは異なり、画像を示す入力データをウェーブレット変換せずにビットストリーム529を生成することができる。よって、簡単な処理でビットストリーム529を生成することができる。   Thus, the transcoder 34 receives the transcoder decoded data 516 and the transcoder encoded data 527 which are data after wavelet transform. Therefore, unlike the IoT terminal 2, the transcoder 34 can generate the bitstream 529 without wavelet transformation of input data representing an image. Therefore, the bit stream 529 can be generated by simple processing.

また、トランスコーダ用符号化データ527は圧縮符号化されたデータである。したがって、トランスコーダ34は、トランスコーダ用符号化データ527が入力される場合には、IoT端末2とは異なり、入力データを圧縮符号化せずにビットストリーム529を生成することができる。よって、より簡単な処理でビットストリーム529を生成することができる。   Also, the transcoder encoded data 527 is data that has been compression encoded. Therefore, when the transcoder encoded data 527 is input, the transcoder 34 can generate the bit stream 529 without compressing and encoding the input data, unlike the IoT terminal 2. Therefore, the bit stream 529 can be generated by simpler processing.

<画像処理システムの動作例>
次に画像処理システム4全体での動作例について説明する。以下では、一例として、ゲートウェイ3が、検出対象物が検出されるまで、分解レベルが高いものから順にLLサブバンド画像に対して画像認識処理を行う場合の画像処理システム4の動作について説明する。
<Operation Example of Image Processing System>
Next, an operation example of the entire image processing system 4 will be described. Hereinafter, as an example, an operation of the image processing system 4 in the case where the gateway 3 performs the image recognition processing on the LL sub-band image in the descending order of the decomposition level until the detection target is detected will be described.

IoT端末2のカメラ20が動画の撮影を開始すると、画像処理システム4は前処理を行う。前処理では、ゲートウェイ3は、まずIoT端末2に対して、撮影が開始した動画の最初のフレーム画像全体を示す非差分階層化データ501を送信することを、非差分送信指示情報520を用いて指示する。この非差分送信指示情報520を受け取ったIoT端末2では、決定部26は、最初のフレーム画像全体を示す非差分階層化データ501を送信対象データ503として符号化装置24に入力する。これにより、最初のフレーム画像全体を示す符号化非差分データ505を含むビットストリーム506がIoT端末2から送信される。ビットストリーム506を受け取ったゲートウェイ3では、復号化装置31が、当該ビットストリーム506に含まれる符号化非差分データ505に対して伸張復号化を行って、最初のフレーム画像全体を示す復号化非差分データ521を生成する。データ処理部32は、復号化装置31で生成された復号化非差分データ521を第1メモリ323に記憶する。これにより、前処理が完了する。前処理が完了した時点では、最初のフレーム画像全体を示す非差分階層化データ501の各ウェーブレット係数が第1メモリ323に記憶される。   When the camera 20 of the IoT terminal 2 starts shooting a moving image, the image processing system 4 performs preprocessing. In the pre-processing, using the non-differential transmission instruction information 520, the gateway 3 first transmits, to the IoT terminal 2, the non-differential layered data 501 indicating the entire first frame image of the moving image for which imaging has started. To direct. In the IoT terminal 2 that has received the non-differential transmission instruction information 520, the determination unit 26 inputs the non-differential layered data 501 indicating the entire first frame image as the transmission target data 503 to the encoding device 24. Thereby, the bit stream 506 including the encoded non-differential data 505 indicating the entire first frame image is transmitted from the IoT terminal 2. In the gateway 3 having received the bit stream 506, the decoding device 31 performs decompression decoding on the encoded non-differential data 505 included in the bit stream 506, and decodes the non-differential to indicate the entire first frame image. Data 521 is generated. The data processing unit 32 stores the decoded non-differential data 521 generated by the decoding device 31 in the first memory 323. This completes the preprocessing. When the preprocessing is completed, each wavelet coefficient of the non-differential layered data 501 indicating the entire first frame image is stored in the first memory 323.

前処理が完了すると、画像処理システム4は図29,30に示される動作を行う。図29,30は、前処理後に対象フレーム画像に対して処理を行う画像処理システム4のゲートウェイ3及びIoT端末2の動作の一例をそれぞれ示す図である。図29,30の例では、ゲートウェイ3は差分送信指示情報520をIoT端末2に送信し、IoT端末2は差分送信指示情報520に応じた差分コードブロックをゲートウェイ3に送信する。   When the preprocessing is completed, the image processing system 4 performs the operations shown in FIGS. FIGS. 29 and 30 are diagrams respectively showing an example of the operation of the gateway 3 and the IoT terminal 2 of the image processing system 4 that performs processing on the target frame image after preprocessing. In the example of FIGS. 29 and 30, the gateway 3 transmits the differential transmission instruction information 520 to the IoT terminal 2, and the IoT terminal 2 transmits the differential code block according to the differential transmission instruction information 520 to the gateway 3.

対象フレーム画像に対する処理が開始すると、図29に示されるように、ステップs11において、ゲートウェイ3の第1処理部321は、最大分解レベルのLLサブバンド、本例ではLL3サブバンドを処理対象とする。そして第1処理部321は、処理対象のLLサブバンドの分解レベルを示す変数LVを3に設定する。以後、処理対象のLLサブバンドを対象LLサブバンドと呼ぶ。また、対象LLサブバンドを画像と見立てて対象LLサブバンド画像と呼ぶことがある。また、対象LLサブバンドの分解レベルを対象分解レベルと呼ぶことがある。第1処理部321は、対象LLサブバンドの差分コードブロックを指定データとして決定する。   When processing on the target frame image starts, as shown in FIG. 29, in step s11, the first processing unit 321 of the gateway 3 targets the LL subband of the maximum decomposition level, in this example, the LL3 subband. . Then, the first processing unit 321 sets a variable LV indicating the decomposition level of the LL sub-band to be processed to 3. Hereinafter, the LL subband to be processed is referred to as a target LL subband. Also, the target LL subband may be regarded as an image and may be referred to as a target LL subband image. Also, the decomposition level of the target LL subband may be referred to as the target decomposition level. The first processing unit 321 determines the differential code block of the target LL subband as designated data.

次にステップs12において、第1処理部321は、ステップs11で決定した指定データをIoT端末2に通知するための差分送信指示情報520を生成して送信部30bに入力する。送信部30bは、入力された差分送信指示情報520をIoT端末2に送信する。   Next, in step s12, the first processing unit 321 generates difference transmission instruction information 520 for notifying the IoT terminal 2 of the designation data determined in step s11, and inputs the information to the transmission unit 30b. The transmitting unit 30 b transmits the input difference transmission instruction information 520 to the IoT terminal 2.

IoT端末2では、図30に示されるように、受信部25bがステップs31において差分送信指示情報520を受信して決定部26に入力する。次にステップs32において、決定部26は、入力された差分送信指示情報520と統合マスクデータ513とに基づいて、差分階層化データ502から送信対象データ503を決定する。対象フレーム画像に対する処理が開始した後の最初のステップs32においては、決定部26は、統合マスクデータ513が示す各統合サブバンドマスクの第2ROIマスク部分に対して、膨脹及び縮退を行うグルーピング処理と、ラベリング処理とを順次行う。これにより、第2ROIマスク部分に含まれる独立領域(島領域)に固有のラベルが割り当てられる。以後、この独立領域を「ラベル領域」と呼ぶことがある。   In the IoT terminal 2, as shown in FIG. 30, the reception unit 25b receives the difference transmission instruction information 520 in step s31 and inputs the information to the determination unit 26. Next, in step s32, the determination unit 26 determines transmission target data 503 from the difference hierarchical data 502 based on the input difference transmission instruction information 520 and the integrated mask data 513. In the first step s32 after processing of the target frame image starts, the determination unit 26 performs grouping and expansion processing on the second ROI mask portion of each integrated subband mask indicated by the integrated mask data 513. And the labeling process are sequentially performed. As a result, a unique label is assigned to the independent region (island region) included in the second ROI mask portion. Hereinafter, this independent area may be called a "label area".

図31は、分解レベル3に対応する統合サブバンドマスク5126に対してグルーピング処理及びラベリング処理を行った様子を示す図である。図31では、統合サブバンドマスク5126に対して、サブバンドLL3の複数のコードブロック5021a〜5021iが重ねられている。図31には、上述の図18,19に示される例とは異なる統合サブバンドマスク5126が示されている。図31の例では、第2ROIマスク部分(白抜き部分)は、ラベル0のラベル領域L0と、ラベル1のラベル領域L1とに分けられている。他の分解レベルに対応する統合サブバンドマスク5126の第2ROIマスク部分についても、ラベル領域L0,L1に分けられる。   FIG. 31 is a diagram showing the grouping process and the labeling process performed on the integrated subband mask 5126 corresponding to the decomposition level 3. In FIG. 31, a plurality of code blocks 5021a to 5021i of the subband LL3 are superimposed on the integrated subband mask 5126. In FIG. 31, an integrated subband mask 5126 different from the example shown in FIGS. 18 and 19 described above is shown. In the example of FIG. 31, the second ROI mask portion (opened portion) is divided into a label area L0 of label 0 and a label area L1 of label 1. The second ROI mask portion of the integrated subband mask 5126 corresponding to the other decomposition levels is also divided into label regions L0 and L1.

決定部26は、ラベリング処理を実行した後、対象LLサブバンドに対応するラベリング処理後の統合サブバンドマスクに対して、上述の図31に示されるように、対象LLサブバンドの複数のコードブロックを重ねる。以後、対象LLサブバンドに対応する統合サブバンドマスクを「対象統合サブバンドマスク」と呼ぶことがある。   After performing the labeling process, the determining unit 26 performs a plurality of code blocks of the target LL subbands on the integrated subband mask after the labeling process corresponding to the target LL subbands, as shown in FIG. 31 described above. Layer Hereinafter, the integrated subband mask corresponding to the target LL subband may be referred to as a “target integrated subband mask”.

次に決定部26は、番号が最も小さいラベルを処理対象のラベル(以後、対象ラベルと呼ぶことがある)とする。そして決定部26は、対象LLサブバンドの複数のコードブロックのうち、対象ラベルのラベル領域に対応する差分コードブロックを、送信対象データ503とする。具体的には、決定部26は、対象LLサブバンドの複数のコードブロックのうち、対象ラベルのラベル領域の少なくとも一部を含む差分コードブロックを、送信対象データ503とする。以後、対象ラベルのラベル領域を対象ラベル領域と呼ぶことがある。   Next, the determination unit 26 sets the label with the smallest number as the label to be processed (hereinafter, may be referred to as a target label). Then, the determination unit 26 sets, as transmission target data 503, a differential code block corresponding to the label area of the target label among the plurality of code blocks of the target LL subband. Specifically, the determination unit 26 sets, as transmission target data 503, a differential code block including at least a part of the label area of the target label among the plurality of code blocks of the target LL subband. Hereinafter, the label area of the target label may be referred to as a target label area.

図31の例では、ラベル0が対象ラベルとされる。そして、ラベル領域L0に対応する差分コードブロック5021b,5021c,5021e,5021fが送信対象データ503とされる。なお後述するように、他のラベルのラベル領域に対応する差分コードブロックは後で送信対象データ503とされる。   In the example of FIG. 31, the label 0 is the target label. Then, differential code blocks 5021b, 5021c, 5021e, and 5021f corresponding to the label area L0 are set as transmission target data 503. As will be described later, the differential code block corresponding to the label area of the other label is set as transmission target data 503 later.

決定部26は、送信対象データ503を決定すると、ステップs33において、送信対象データ503に含まれる各差分コードブロックについてのウェーブレット平面上での位置を示す座標を含む座標データ504を生成する。   When the determination unit 26 determines the transmission target data 503, in step s33, the determination unit 26 generates coordinate data 504 including coordinates indicating the position on the wavelet plane for each differential code block included in the transmission target data 503.

次にステップs34において、符号化装置24は、送信対象データ503を圧縮符号化して符号化データ505を生成する。次にステップs35において、符号化装置24は、符号化データ505を含むビットストリーム506を生成する。送信部25aは、ビットストリーム506と、ステップs33で生成された座標データ504とを、ゲートウェイ3に送信する。このとき、IoT端末2は、ラベリング処理で得られたラベルの番号をゲートウェイ3に通知するとともに、現在の対象ラベルをゲートウェイ3に通知する。図31の例では、ラベルの番号0及び1がゲートウェイ3に通知されるとともに、現在の対象ラベルがラベル0であることがゲートウェイ3に通知される。   Next, in step s34, the encoding device 24 compresses and encodes the transmission target data 503 to generate encoded data 505. Next, in step s35, the encoding device 24 generates a bit stream 506 including the encoded data 505. The transmitting unit 25a transmits the bit stream 506 and the coordinate data 504 generated in step s33 to the gateway 3. At this time, the IoT terminal 2 notifies the gateway 3 of the label number obtained in the labeling process, and notifies the gateway 3 of the current target label. In the example of FIG. 31, while the label numbers 0 and 1 are notified to the gateway 3, the gateway 3 is notified that the current target label is the label 0.

図29に戻って、ステップs12の後、ゲートウェイ3の受信部30aは、ステップs13において、IoT端末2からのビットストリーム506及び座標データ504を受信する。そしてステップs14において、ビットストリーム506に含まれる符号化データ505が第2メモリ324に記憶され、座標データ504が座標メモリ36の座標テーブル36aに記憶される。また、復号化装置31で符号化データ505が伸張復号化されて復号化差分データ521が生成される。   Referring back to FIG. 29, after step s12, the receiving unit 30a of the gateway 3 receives the bit stream 506 and the coordinate data 504 from the IoT terminal 2 in step s13. Then, in step s14, the encoded data 505 included in the bit stream 506 is stored in the second memory 324, and the coordinate data 504 is stored in the coordinate table 36a of the coordinate memory 36. Further, the encoded data 505 is expanded and decoded by the decoding device 31 to generate decoded difference data 521.

次にステップs15において、データ処理部32は、復号化差分データ521に含まれる各復号化差分CBから、それに対応する現非差分CBを復元する。そして、データ処理部32は、復元した現非差分CBの各ウェーブレット係数を第1メモリ323に記憶する。ここで、第1メモリ323には、上述の前処理によって、最初のフレーム画像全体を示す非差分階層化データ501の各ウェーブレット係数が記憶されている。つまり、第1メモリ323には、最初のフレーム画像全体を示す非差分階層化データ501の各非差分CBが記憶されている。データ処理部32は、この非差分CBを過去非差分CBとして使用して、現非差分CBを復元する。   Next, in step s15, the data processing unit 32 restores the current non-differential CB corresponding to the respective decoded differences CB included in the decoded differential data 521. Then, the data processing unit 32 stores the wavelet coefficients of the restored current non-difference CB in the first memory 323. Here, the wavelet coefficients of the non-differential layered data 501 indicating the entire first frame image are stored in the first memory 323 by the above-described pre-processing. That is, in the first memory 323, each non-difference CB of the non-difference hierarchical data 501 indicating the entire first frame image is stored. The data processing unit 32 restores the current non-differential CB using this non-differential CB as a past non-differential CB.

次にステップs16において、第1処理部321は、認識用データ生成部320への入力データを生成する。ここでは、第1処理部321は、対象フレーム画像をウェーブレット変換して得られるウェーブレット平面(以後、対象ウェーブレット平面と呼ぶことがある)の対象LLサブバンドのうち、対象ラベル領域に対応する部分を、認識対象画像とする。そして、第1処理部321は、対象ウェーブレット平面の対象LLサブバンドにおいて、対象ラベル領域に対応する非差分CB(復元された非差分CB)を、第1メモリ323から読み出す。つまり、第1処理部321は、対象ウェーブレット平面の対象LLサブバンドに対して、対象分解レベルに対応する統合サブバンドマスクを重ねた場合に、当該統合サブバンドマスクの対象ラベル領域の少なくとも一部を含む非差分CBを、第1メモリ323から読み出す。   Next, in step s16, the first processing unit 321 generates input data to the recognition data generation unit 320. Here, the first processing unit 321 corresponds to the portion corresponding to the target label area in the target LL sub-bands of the wavelet plane (hereinafter may be referred to as the target wavelet plane) obtained by wavelet transforming the target frame image. , As a recognition target image. Then, the first processing unit 321 reads, from the first memory 323, the non-differential CB (the restored non-differential CB) corresponding to the target label area in the target LL subband of the target wavelet plane. That is, when the first processing unit 321 superimposes the integrated subband mask corresponding to the target decomposition level on the target LL subband of the target wavelet plane, at least a part of the target label region of the integrated subband mask Are read from the first memory 323.

ここで、IoT端末2は、上述のように、送信対象データ503に含まれる各コードブロックの座標を含む座標データ504をゲートウェイ3に送信する。そして、ゲートウェイ3は、受けとった座標データ504を座標テーブル36aに登録する。したがって、第1処理部321は、座標テーブル36aを参照することによって、対象ウェーブレット平面の対象LLサブバンドにおいて、対象ラベル領域に対応する非差分CBの座標を特定することができる。よって、第1処理部321は、当該非差分CBを第1メモリ323から読み出すことができる。第1処理部321は、読み出した非差分CBで構成される逆変換非対象データ531を認識用データ生成部320に入力する。   Here, as described above, the IoT terminal 2 transmits, to the gateway 3, coordinate data 504 including the coordinates of each code block included in the transmission target data 503. Then, the gateway 3 registers the received coordinate data 504 in the coordinate table 36a. Therefore, the first processing unit 321 can specify the coordinates of the non-difference CB corresponding to the target label area in the target LL subband of the target wavelet plane by referring to the coordinate table 36a. Therefore, the first processing unit 321 can read out the non-difference CB from the first memory 323. The first processing unit 321 inputs the inverse conversion non-target data 531 configured by the read non-difference CB to the recognition data generation unit 320.

図32は、対象分解レベルに対応する統合サブバンドマスク5126を、複数の非差分CB5011a〜5011iを含む対象LLサブバンドに重ねた様子の一例を示す図である。図32の例では、対象分解レベルは3となっている。図32の例において、対象ラベル領域がラベル領域L0であるとすると、第1処理部321が第1メモリ323から読み出す非差分CBは、ラベル領域L0の少なくとも一部を含む非差分CB5011b,5011c,5011e,5011fとなる。   FIG. 32 is a diagram showing an example of a state in which the integrated subband mask 5126 corresponding to the target decomposition level is superimposed on the target LL subband including the plurality of non-differential CBs 5011 a to 5011 i. In the example of FIG. 32, the target decomposition level is three. In the example of FIG. 32, assuming that the target label area is the label area L0, the non-differential CB read by the first processing unit 321 from the first memory 323 is non-differential CB 5011 b, 5011 c, including at least a part of the label area L0. It becomes 5011e and 5011f.

次にステップs17において、認識用データ生成部320は、逆変換非対象データ531に基づいて認識用データ522を生成する。逆変換非対象データ531は、逆ウェーブレット変換されずに、色空間変換部3202に入力される。認識用データ522は、対象ウェーブレット平面の対象LLサブバンド画像における、対象ラベル領域に対応する画像を示す。   Next, in step s17, the recognition data generation unit 320 generates recognition data 522 based on the inverse conversion non-target data 531. The inverse transformation non-target data 531 is input to the color space conversion unit 3202 without being inverse wavelet transformed. The recognition data 522 indicates an image corresponding to the target label area in the target LL subband image of the target wavelet plane.

次にステップs18において、画像認識部33は、ステップs17で生成された認識用データ522が示す画像に対して画像認識処理を行う。この画像認識処理において検出対象物が検出されると、データ処理部32は、対象ラベルを終了ラベルとする。   Next, in step s18, the image recognition unit 33 performs an image recognition process on the image indicated by the recognition data 522 generated in step s17. When a detection target is detected in the image recognition process, the data processing unit 32 sets the target label as an end label.

次にステップs19において、データ処理部32は、対象フレーム画像に対する処理を終了するか否かを決定する終了判定を行う。   Next, in step s19, the data processing unit 32 performs termination determination to determine whether or not the processing on the target frame image is to be terminated.

図33は終了判定の一例を示すフローチャートである。図33に示されるように、ステップs191において、データ処理部32は、画像認識部33での過去の画像認識処理の結果に基づいて、IoT端末2で定められた全てのラベルに関して、検出対象物が検出されたか否かを特定する。つまり、データ処理部32は、IoT端末2で定められた各ラベルについて、当該ラベルのラベル領域に対応するコードブロックから検出対象物が検出されたか否かを特定する。データ処理部32は、全てのラベルに関して、検出対象物が検出されたことを特定すると、ステップs192において、対象フレーム画像に対する処理を終了することを決定する。これにより、終了判定が終了する。   FIG. 33 is a flowchart showing an example of the end determination. As shown in FIG. 33, in step s191, the data processing unit 32 detects an object to be detected for all labels defined by the IoT terminal 2 based on the result of the image recognition process in the past performed by the image recognition unit 33. Identify whether or not is detected. That is, the data processing unit 32 specifies, for each label defined by the IoT terminal 2, whether or not the detection target is detected from the code block corresponding to the label area of the label. When the data processing unit 32 specifies that the detection target has been detected for all the labels, in step s192, the data processing unit 32 determines to end the processing on the target frame image. Thus, the end determination ends.

一方で、データ処理部32は、ステップs191でNOと判定すると、ステップs193において、対象ラベルを示す変数LNの値が、最大値max1と一致するか否かを判定する。ここで、最大値max1とは、IoT端末2が定めたラベルにおいて、終了ラベルを除いたラベルのうち、最も大きいラベルを意味している。IoT端末2が定めたラベルにおいて終了ラベルを除いたラベルを処理対象候補のラベルと呼ぶと、最大値max1は、処理対象候補のラベルのうちの最大値を意味している。例えば、図31の例のように、IoT端末2が、ラベル0,1を定め、現在の終了ラベル(検出対象物が検出されたラベル)が0の場合、最大値max1は1となる。また例えば、IoT端末2が、ラベル0〜3を定め、現在の終了ラベルが0,3の場合、最大値max1は2となる。なお、終了ラベルが存在しない場合に、最大値max1は、IoT端末2が定めたラベルのうちの最大値と一致する。   On the other hand, when the data processing unit 32 determines NO in step s191, it determines whether or not the value of the variable LN indicating the target label matches the maximum value max1 in step s193. Here, the maximum value max1 means the largest label among the labels excluding the end label in the label determined by the IoT terminal 2. When the label excluding the end label in the label defined by the IoT terminal 2 is called the label of the processing target candidate, the maximum value max1 means the maximum value among the labels of the processing target candidate. For example, as in the example of FIG. 31, when the IoT terminal 2 defines labels 0 and 1 and the current end label (the label in which the object to be detected is detected) is 0, the maximum value max1 is 1. Further, for example, when the IoT terminal 2 defines labels 0 to 3 and the current end labels are 0 and 3, the maximum value max1 is 2. When the end label does not exist, the maximum value max1 matches the maximum value of the labels determined by the IoT terminal 2.

ステップs193において、変数LNの値が最大値max1に一致すると判定されると、ステップs194において、データ処理部32は、対象LLサブバンドの分解レベルを示す変数LVの値が1であるか否かを判定する。データ処理部32は、変数LVの値が1であると判定すると、つまり対象LLサブバンドがLL1サブバンドである場合、ステップs182を実行して、対象フレーム画像に対する処理を終了することを決定する。   When it is determined in step s193 that the value of the variable LN matches the maximum value max1, in step s194, the data processing unit 32 determines whether the value of the variable LV indicating the decomposition level of the target LL subband is 1 or not. Determine If the data processing unit 32 determines that the value of the variable LV is 1, that is, if the target LL sub-band is the LL1 sub-band, the data processing unit 32 executes step s182 and determines to end the processing for the target frame image. .

ステップs194において、変数LVの値が1ではないと判定されると、ステップs195において、データ処理部32は、変数LVの値を1つだけ減少する。これより、今までの対象LLサブバンドの分解レベルよりも1つだけ小さい分解レベルのLLサブバンドが対象LLサブバンドとなる。ステップs195の後、ステップs196において、データ処理部32は、変数LNの値を最小値min1に設定する。ここで、最小値min1とは、処理対象候補のラベルのうち、最も小さいラベルを意味している。例えば、図31の例のように、IoT端末2がラベル0,1を定め、現在の終了ラベル領域のラベルが0の場合、最小値min1は1となる。また例えば、IoT端末2がラベル0〜3を定め、現在の終了ラベル領域のラベルが0,3の場合、最小値min1は1となる。変数LNの値が最小値min1に設定されることによって、処理対象候補のラベルのうちの最小のラベルが新たな対象ラベルとされる。なお、終了ラベルが存在しない場合に、最小値min1は、IoT端末2が定めたラベルのうちの最小値と一致する。   When it is determined in step s194 that the value of the variable LV is not 1, the data processing unit 32 decreases the value of the variable LV by one in step s195. From this, the LL subband of the decomposition level which is smaller by one than the decomposition level of the target LL subband up to now is the target LL subband. After step s195, in step s196, the data processing unit 32 sets the value of the variable LN to the minimum value min1. Here, the minimum value min1 means the smallest label among the labels of the processing target candidates. For example, as in the example of FIG. 31, when the IoT terminal 2 defines labels 0 and 1, and the label of the current end label area is 0, the minimum value min1 is 1. Also, for example, when the IoT terminal 2 defines labels 0 to 3 and the label of the current end label area is 0 or 3, the minimum value min1 is 1. By setting the value of the variable LN to the minimum value min1, the minimum label among the labels of the processing target candidate is set as a new target label. When there is no end label, the minimum value min1 matches the minimum value of the labels defined by the IoT terminal 2.

ステップs196の後、ステップs197において、データ処理部32は、対象フレーム画像に対する処理を継続することを決定する。これにより、終了判定が終了する。   After step s196, in step s197, the data processing unit 32 determines to continue the process on the target frame image. Thus, the end determination ends.

ステップs193において、変数LNの値が最大値max1でない場合、ステップs198において、データ処理部32は、変数LNの値を次の値に変更する。具体的には、データ処理部32は、変数LNの値を、処理対象候補のラベルのうち、当該変数LNの現在の値よりも次に大きい値のラベルに変更する。その後、ステップs197が実行されて、対象フレーム画像に対する処理の継続が決定される。   If the value of the variable LN is not the maximum value max1 in step s193, the data processing unit 32 changes the value of the variable LN to the next value in step s198. Specifically, the data processing unit 32 changes the value of the variable LN to the label of the next larger value of the labels of the processing target candidates than the current value of the variable LN. Thereafter, step s197 is performed to determine continuation of the process on the target frame image.

図29に戻って、ステップs19の終了判定において、データ処理部32が対象フレーム画像に対する処理を終了すると決定すると、ステップs20において、ゲートウェイ3は、対象フレーム画像に対する処理が終了したことを通知するための終了通知をIoT端末2に行う。ゲートウェイ3は、対象フレーム画像から検出対象物が検出された場合には、ステップs20の後のステップs21において、検出対象物が写る検出対象物画像(ROI)を示す符号化データ590を含むビットストリーム529をトランスコーダ34で生成する。対象フレーム画像から複数の検出対象物が検出された場合には、当該複数の検出対象物がそれぞれ写る複数の検出対象物画像を示す符号化データ590を含むビットストリーム529が生成される。そして、ゲートウェイ3は、生成したビットストリーム529と、画像認識部33が生成する、対象フレーム画像に関する認識結果情報524とを、通信部35からクラウドサーバ5に送信する。これにより、対象フレーム画像に対する処理が終了する。   Referring back to FIG. 29, if it is determined that the data processing unit 32 ends the process on the target frame image in the end determination of step s19, the gateway 3 notifies in step s20 that the process on the target frame image is ended. End notification to the IoT terminal 2. When the detection target is detected from the target frame image, the gateway 3 includes, in step s21 after step s20, a bitstream including encoded data 590 indicating a detection target image (ROI) in which the detection target is captured. 529 is generated by the transcoder 34. When a plurality of detection targets are detected from the target frame image, a bit stream 529 including encoded data 590 indicating a plurality of detection target images in which the plurality of detection targets are respectively captured is generated. Then, the gateway 3 transmits the generated bit stream 529 and the recognition result information 524 on the target frame image generated by the image recognition unit 33 from the communication unit 35 to the cloud server 5. Thus, the process on the target frame image is completed.

なお、対象フレーム画像から検出対象物が検出されなかった場合には、ステップs21が実行されずに対象フレーム画像に対する処理が終了する。あるいは、検出対象物が検出されなかったことを示す情報を含む認識結果情報524が通信部35からクラウドサーバ5に送信された後に、対象フレーム画像に対する処理が終了してもよい。   If no detection target is detected from the target frame image, the process on the target frame image is ended without executing step s21. Alternatively, after the recognition result information 524 including the information indicating that the detection target is not detected is transmitted from the communication unit 35 to the cloud server 5, the processing on the target frame image may end.

ステップs19の終了判定において、データ処理部32が対象フレーム画像に対する処理を継続すると決定すると、ゲートウェイ3はステップs11を再度実行して、指定データを決定する。このステップs11では、変数LN,LVが現在示す値に基づいて指定データが決定される。   If it is determined in step s19 that the data processing unit 32 continues the process on the target frame image in the end determination of step s19, the gateway 3 executes step s11 again to determine designated data. In step s11, designated data is determined based on the values currently indicated by the variables LN and LV.

第1処理部321は、変数LVが現在示す対象分解レベルが、最大分解レベル、つまり3である場合、LL3サブバンドのうち、分解レベル3に対応する統合サブバンドマスクにおける、変数LNが現在示す対象ラベルのラベル領域に対応する差分コードブロックを指定データとする。   When the target decomposition level currently indicated by the variable LV is the maximum decomposition level, ie, 3, the first processing unit 321 indicates by the variable LN in the integrated subband mask corresponding to the decomposition level 3 among the LL3 subbands. The differential code block corresponding to the label area of the target label is set as designated data.

また第1処理部321は、変数LVが現在示す対象分解レベルが、最大分解レベル以外である場合、つまり3よりも小さい場合、対象分解レベルよりも分解レベルが1つ高いLHサブバンド、HLサブバンド及びHHサブバンドにおける、対象ラベルのラベル領域に対応する差分CBを指定データとする。このラベル領域は、対象分解レベルよりも1つ高い分解レベルに対応する統合サブバンドマスクのラベル領域である。   In addition, when the target decomposition level currently indicated by the variable LV is other than the maximum decomposition level, that is, smaller than 3, the first processing unit 321 performs an LH sub-band with one decomposition level higher than the target decomposition level, HL sub The differential CB corresponding to the label area of the target label in the band and the HH subband is designated as designated data. This label area is the label area of the integrated subband mask corresponding to the decomposition level one higher than the target decomposition level.

ここで、本例では、上述の説明及び後述の説明から理解できるように、対象分解レベルが3よりも小さい場合には、ゲートウェイ3は、対象分解レベルよりも分解レベルが1つ高いLLサブバンドにおける、対象ラベル領域に対応する非差分CBを、第1メモリ323に記憶している。   Here, in the present example, as can be understood from the above description and the following description, when the target decomposition level is smaller than 3, the gateway 3 sets the LL subband one decomposition level higher than the target decomposition level. In the first memory 323, the non-differential CB corresponding to the target label area is stored.

また、ゲートウェイ3の認識用データ生成部320の逆ウェーブレット変換部3201は、LL3サブバンド、LH3サブバンド、HL3サブバンド及びHH3サブバンドの非差分CBを逆ウェーブレット変換することによって、LL2サブバンドの非差分CBを復元することができる。同様に、逆ウェーブレット変換部3201は、LL2サブバンド、LH2サブバンド、HL2サブバンド及びHH2サブバンドの非差分CBを逆ウェーブレット変換することによって、LL1サブバンドの非差分CBを復元する。   In addition, the inverse wavelet transform unit 3201 of the recognition data generation unit 320 of the gateway 3 performs inverse wavelet transform of the LL3 subband, the LH3 subband, the HL3 subband, and the non-differential CB of the HH3 subband to generate LL2 subbands. Non-differential CB can be restored. Similarly, the inverse wavelet transform unit 3201 restores the non-differential CB of the LL1 subband by inverse wavelet transforming the non-differential CB of the LL2 subband, the LH2 subband, the HL2 subband, and the HH2 subband.

そして、ゲートウェイ3のデータ処理部32の復元部326は、IoT端末2からの差分CB(復号化差分CB)から、現非差分CBを復元することができる。   Then, the restoration unit 326 of the data processing unit 32 of the gateway 3 can restore the current non-difference CB from the difference CB (decoding difference CB) from the IoT terminal 2.

以上より、ゲートウェイ3は、対象分解レベルが3よりも小さい場合、上記のように指定データを決定することによって、対象LLサブバンドにおける、対象ラベル領域に対応する非差分CBを復元するために必要なデータを得ることができる。つまり、ゲートウェイ3は、対象分解レベルよりも分解レベルが1つ高いLLサブバンド、LHサブバンド、HLサブバンド及びHHサブバンドにおける、対象ラベル領域に対応する非差分CBを得ることができる。よって、ゲートウェイ3は、上記のように指定データを決定することによって、対象分解レベルのLLサブバンドにおける、対象ラベルのラベル領域に対応する差分CBを復元することができる。   From the above, when the target decomposition level is smaller than 3, the gateway 3 is required to restore the non-differential CB corresponding to the target label area in the target LL subband by determining the designated data as described above. Data can be obtained. That is, the gateway 3 can obtain non-differential CBs corresponding to the target label area in the LL sub-band, the LH sub-band, the HL sub-band, and the HH sub-band whose decomposition level is one higher than the target decomposition level. Therefore, the gateway 3 can restore the differential CB corresponding to the label area of the target label in the LL subband of the target decomposition level by determining the designated data as described above.

例えば、対象LLサブバンドがLL2サブバンドであって、対象ラベルがラベル1である場合、第1処理部321は、分解レベル3のLH3サブバンド、HL3サブバンド及びHH3サブバンドにおける、ラベル1のラベル領域L1に対応する差分CBを指定データとする。対象LLサブバンドがLL2サブバンドである場合、ゲートウェイ3は、LL3サブバンドにおける、ラベル1のラベル領域L1に対応する非差分CBをすでにIoT端末2から受け取って第1メモリ323に記憶している。また、ゲートウェイ3は、復元部326において、分解レベル3のLH3サブバンド、HL3サブバンド及びHH3サブバンドにおける、ラベル1のラベル領域L1に対応する差分CBから、分解レベル3のLH3サブバンド、HL3サブバンド及びHH3サブバンドにおける、ラベル1のラベル領域L1に対応する非差分CBを復元することができる。したがって、ゲートウェイ3は、このようにして指定データを決定することによって、LL3サブバンド、LH3サブバンド、HL3サブバンド及びHH3サブバンドにおける、ラベル領域L1に対応する非差分CBを得ることができる。よって、ゲートウェイ3は、逆ウェーブレット変換によって、LL2サブバンドにおけるラベル領域L1に対応する非差分CBを復元することができる。   For example, when the target LL sub-band is the LL2 sub-band and the target label is the label 1, the first processing unit 321 determines that the label 1 in the LH3 sub-band, the HL3 sub-band, and the HH3 sub-band of the decomposition level 3 is included. The differential CB corresponding to the label area L1 is designated as designated data. When the target LL subband is the LL2 subband, the gateway 3 has already received from the IoT terminal 2 the non-differential CB corresponding to the label region L1 of the label 1 in the LL3 subband and stored in the first memory 323 . Also, in the restoration unit 326, the gateway 3 generates the LH3 subband of the decomposition level 3 and the HL3 from the difference CB corresponding to the label area L1 of the label 1 in the LH3 subband, the HL3 subband and the HH3 subband of the decomposition level 3. A non-differential CB corresponding to the label region L1 of label 1 in the subband and the HH3 subband can be restored. Therefore, the gateway 3 can obtain the non-differential CB corresponding to the label area L1 in the LL3 subband, the LH3 subband, the HL3 subband, and the HH3 subband by determining the designated data in this manner. Thus, the gateway 3 can restore the non-differential CB corresponding to the label region L1 in the LL2 subband by inverse wavelet transform.

ゲートウェイ3は、ステップs11を実行すると、ステップs12において、ステップs11で決定した指定データを通知するための差分送信指示情報520を生成する。そして、ゲートウェイ3は、生成した差分送信指示情報520をIoT端末2に送信する。   After executing step s11, the gateway 3 generates difference transmission instruction information 520 for notifying of the designated data determined in step s11 in step s12. Then, the gateway 3 transmits the generated difference transmission instruction information 520 to the IoT terminal 2.

IoT端末2は、ステップs31において差分送信指示情報520を受信すると、ステップs32において、受信した差分送信指示情報520と統合マスクデータ513とに基づいて、差分階層化データ502から送信対象データ503を決定する。IoT端末2の決定部26は、差分階層化データ502において、差分送信指示情報520によって指定される差分CB(復号化差分CB)を統合マスクデータ513に基づいて特定する。そして、決定部26は、特定した差分CBを送信対象データ503とする。   When the IoT terminal 2 receives the difference transmission instruction information 520 in step s31, in step s32, the IoT terminal 2 determines the transmission target data 503 from the difference hierarchical data 502 based on the received difference transmission instruction information 520 and the integrated mask data 513. Do. The determination unit 26 of the IoT terminal 2 specifies the differential CB (decoding differential CB) specified by the differential transmission instruction information 520 in the differential layered data 502 based on the integrated mask data 513. Then, the determination unit 26 sets the identified difference CB as the transmission target data 503.

ステップs32において送信対象データ503が決定されると、IoT端末2は、上記と同様にしてステップs33,s34,s35を実行する。ステップs35の後、ステップs36において、IoT端末2は、ゲートウェイ3からの終了通知を受信すると、対象フレーム画像に対する処理を終了する。一方で、IoT端末2は、ステップs35の後、ゲートウェイ3から、終了通知を受信せずに差分送信指示情報520を受信する場合(ステップs31)には、上記同様にしてステップs32を実行し、以後同様に動作する。   When the transmission target data 503 is determined in step s32, the IoT terminal 2 executes steps s33, s34, and s35 in the same manner as described above. After step s35, in step s36, when receiving the end notification from the gateway 3, the IoT terminal 2 ends the process on the target frame image. On the other hand, when the IoT terminal 2 receives the difference transmission instruction information 520 without receiving the end notification from the gateway 3 after step s35 (step s31), it executes step s32 in the same manner as described above, The same applies thereafter.

なおステップs32において、決定部26は、差分階層化データ502において、差分送信指示情報520によって指定される差分CBを統合マスクデータ513に基づいて特定し、特定した差分CBのうち、すでにゲートウェイ3に送信した差分CB以外の差分CBを、送信対象データ503としてもよい。この場合、ステップs33において、決定部26は、特定した差分CBのうち、送信対象データ503に含めなかった差分CB(すでに送信された差分CB)の座標も、座標データ504に含める。これにより、ゲートウェイ3は、ステップs35において対象ラベル領域に対応する差分CBのすべてが送信されない場合であっても、ステップs16において、サブバンドにおける、対象ラベル領域に対応する非差分CBを特定することができる。   In step s32, the determination unit 26 specifies the difference CB specified by the difference transmission instruction information 520 in the difference hierarchical data 502 based on the integrated mask data 513, and of the specified differences CB, has already been transmitted to the gateway 3. The difference CB other than the transmitted difference CB may be used as the transmission target data 503. In this case, in step s33, the determination unit 26 also includes, in the coordinate data 504, the coordinates of the differential CB (the differential CB already transmitted) which is not included in the transmission target data 503 among the identified differential CBs. Thus, even if all of the differential CBs corresponding to the target label area are not transmitted in step s35, the gateway 3 specifies the non-differential CBs corresponding to the target label area in the sub-band in step s16. Can.

このように、決定部26が、差分送信指示情報520によって指定される差分CBのうち、すでにゲートウェイ3に送信した差分CB以外の差分CBを、送信対象データ503とすることによって、IoT端末2からゲートウェイ3に送信するデータ量を低減することができる。   As described above, by using the difference CB other than the difference CB already transmitted to the gateway 3 among the difference CBs specified by the difference transmission instruction information 520 as the transmission target data 503, the determination unit 26 The amount of data to be sent to the gateway 3 can be reduced.

例えば図31の例において、差分送信指示情報520によって指定される指定データが、LL3サブバンドにおける、ラベル領域L1に対応する差分CBであって、ラベル領域L0に対応する4つの差分CB5021b,5021c,5021e.5021fがゲートウェイ3にすでに送信されているとする。この場合、決定部26は、分解レベル3に対応する統合サブバンドマスク5126に基づいて、ラベル領域L1に対応する4つの差分CB5021d,5021e,5021g,5021hを特定する。そして決定部26は、特定した差分CB5021d,5021e,5021g,5021hのうち、既に送信されている差分CB5021e以外の3つの差分CB5021d,5021g,5021hを、送信対象データ503とする。   For example, in the example of FIG. 31, the designated data designated by the difference transmission instruction information 520 is the difference CB corresponding to the label region L1 in the LL3 subband, and the four differences CB 5021b, 5021c, corresponding to the label region L0. 5021 e. It is assumed that 5021 f has already been sent to the gateway 3. In this case, the determination unit 26 specifies four differences CB 5021 d, 5021 e, 5021 g, 5021 h corresponding to the label area L1 based on the integrated subband mask 5126 corresponding to the decomposition level 3. Then, the determination unit 26 sets three differences CB 5021 d, 5021 g, 5021 h other than the difference CB 5021 e already transmitted among the differences CB 50 21 d, 5021 e, 5021 g, 5021 h specified as transmission target data 503.

同様に、差分送信指示情報520によって指定される指定データが、ある分解レベルのLHサブバンド、HLサブバンド及びHHサブバンドにおける、あるラベルのラベル領域に対応する差分CBである場合、決定部26は、統合マスクデータ513に基づいて、当該差分CBを特定する。そして決定部26は、特定した差分CBのうち、すでにゲートウェイ3に送信している差分CBを除く差分CBを、送信対象データ503とする。   Similarly, when the designated data designated by differential transmission instruction information 520 is differential CB corresponding to the label area of a label in the LH, HL, and HH subbands of a decomposition level, the determination unit 26. , Identifies the difference CB based on the integrated mask data 513. Then, the determination unit 26 sets, as transmission target data 503, the difference CB excluding the difference CB already transmitted to the gateway 3 among the specified difference CBs.

図29に戻って、ゲートウェイ3はステップs13においてビットストリーム506及び座標データ504をIoT端末2から受信すると、上述のステップs14,s15を実行する。そして、ゲートウェイ3は、ステップs16において、認識用データ生成部320への入力データを生成する。このステップs16では、第1処理部321は、現在の対象分解レベルが最大分解レベル、つまり3である場合、上記と同様に、座標テーブル36aを参照して、第1メモリ323から、LL3サブバンドにおける、対象ラベル領域に対応する非差分CBを読み出す。そして第1処理部321は、読み出した非差分CBで構成される逆変換非対象データ531を認識用データ生成部320に入力する。   Referring back to FIG. 29, when the gateway 3 receives the bit stream 506 and the coordinate data 504 from the IoT terminal 2 in step s13, the gateway 3 executes the above-described steps s14 and s15. Then, in step s16, the gateway 3 generates input data to the recognition data generation unit 320. In step s16, when the current target decomposition level is the maximum decomposition level, ie, 3 in the first processing unit 321, the LL3 sub-band is read from the first memory 323 by referring to the coordinate table 36a as described above. Read out the non-differential CB corresponding to the target label area. Then, the first processing unit 321 inputs the inverse conversion non-target data 531 configured by the read non-difference CB to the recognition data generation unit 320.

一方で、第1処理部321は、現在の対象分解レベルが3よりも小さい場合、第1メモリ323から、対象分解レベルよりも分解レベルが1つ高いLLサブバンド、LHサブバンド、HLサブバンド及びHHサブバンドにおける、対象ラベル領域に対応する非差分CBを、座標テーブル36aを参照して読み出す。そして第1処理部321は、読み出した非差分CBで構成される逆変換対象データ532を認識用データ生成部320に入力する。   On the other hand, when the current target decomposition level is smaller than 3, the first processing unit 321 determines from the first memory 323 that the LL sub-band, the LH sub-band, and the HL sub-band have a decomposition level higher by one than the target decomposition level. The non-differential CB corresponding to the target label area in the H.sub.H and H.sub.H subbands is read out with reference to the coordinate table 36a. Then, the first processing unit 321 inputs the inverse conversion target data 532 configured by the read non-difference CB to the recognition data generation unit 320.

次にステップs17において、認識用データ生成部320は認識用データ522を生成する。直前のステップs16において逆変換非対象データ531が認識用データ生成部320に入力される場合には、上記と同様に、逆変換非対象データ531は、逆ウェーブレット変換されずに、色空間変換部3202に入力する。一方で、直前のステップs16において逆変換対象データ532が認識用データ生成部320に入力される場合には、逆ウェーブレット変換部3201が、逆変換対象データ532に対して逆ウェーブレット変換を行う。これにより、逆ウェーブレット変換部3201では、対象分解レベルのLLサブバンドにおける、対象ラベル領域に対応する、ウェーブレット係数から成る非差分CBが生成される。この非差分CBはLLデータ530として第1メモリ323に記憶される。これにより、第1メモリ323には、対象分解レベルのLLサブバンドにおける、対象ラベル領域に対応する非差分CBが記憶される。対象分解レベルが2である場合、LL2サブバンドにおける、対象ラベル領域に対応する非差分CBが記憶され、対象分解レベルが1である場合、LL1サブバンドにおける、対象ラベル領域に対応する非差分CBが記憶される。   Next, in step s17, the recognition data generation unit 320 generates recognition data 522. When the inverse conversion non-target data 531 is input to the recognition data generation unit 320 in the previous step s16, the inverse conversion non-target data 531 is not subjected to the inverse wavelet conversion as described above, and the color space conversion unit Input to 3202 On the other hand, when the inverse transformation target data 532 is input to the recognition data generation unit 320 in the previous step s16, the inverse wavelet transformation unit 3201 performs inverse wavelet transformation on the inverse transformation target data 532. As a result, the inverse wavelet transform unit 3201 generates a non-differential CB composed of wavelet coefficients corresponding to the target label area in the LL subband of the target decomposition level. The non-differential CB is stored in the first memory 323 as the LL data 530. Thereby, the first memory 323 stores the non-differential CB corresponding to the target label area in the LL sub-band of the target decomposition level. If the target decomposition level is 2, the non-differential CB corresponding to the target label area in the LL2 subband is stored, and if the target decomposition level is 1, the non-differential CB corresponding to the target label area in the LL1 subband Is stored.

逆ウェーブレット変換部3201で生成された非差分CBは色空間変換部3202に入力される。色空間変換部3202から出力されるデータはDCレベルシフト部3203に入力される。そして、DCレベルシフト部3203から出力されるデータが認識用データ522となる。   The non-difference CB generated by the inverse wavelet transform unit 3201 is input to the color space transform unit 3202. Data output from the color space conversion unit 3202 is input to the DC level shift unit 3203. Then, data output from the DC level shift unit 3203 becomes recognition data 522.

ステップs17において認識用データ522が生成されると、ゲートウェイ3は、上述と同様にしてステップs18,s19を実行する。そして、ゲートウェイ3は以後同様に動作する。   When the recognition data 522 is generated in step s17, the gateway 3 executes steps s18 and s19 in the same manner as described above. The gateway 3 then operates in the same manner.

以上の説明から理解できるように、IoT端末2において図31,32に示されるラベル0,1が定められる場合、まず、LL3サブバンドにおける、ラベル0のラベル領域L0に対応する非差分CBに対して画像認識処理が行われる。次に、LL3サブバンドにおける、ラベル1のラベル領域L1に対応する非差分CBに対して画像認識処理が行われる。   As can be understood from the above description, when labels 0 and 1 shown in FIGS. 31 and 32 are determined in the IoT terminal 2, first, for the non-differential CB corresponding to the label area L0 of label 0 in the LL3 sub-band Image recognition processing is performed. Next, an image recognition process is performed on the non-differential CB corresponding to the label area L1 of the label 1 in the LL3 sub-band.

LL3サブバンドにおける、ラベル領域L0に対応する非差分CBから検出対象物が検出されず、LL3サブバンドにおける、ラベル領域L1に対応する非差分CBから検出対象物が検出されない場合には、LL2サブバンドにおける、ラベル領域L0に対応する非差分CBに対して画像認識処理が行われ、その後、LL2サブバンドにおける、ラベル領域L1に対応する非差分CBに対して画像認識処理が行われる。   When the detection target is not detected from the non-differential CB corresponding to the label region L0 in the LL3 subband and the detection target is not detected from the non-differential CB corresponding to the label region L1 in the LL3 subband, LL2 sub The image recognition process is performed on the non-differential CB corresponding to the label area L0 in the band, and then the image recognition process is performed on the non-differential CB corresponding to the label area L1 in the LL2 subband.

LL2サブバンドにおける、ラベル領域L0に対応する非差分CBから検出対象物が検出されず、LL2サブバンドにおける、ラベル領域L1に対応する非差分CBから検出対象物が検出されない場合には、LL1サブバンドにおける、ラベル領域L0に対応する非差分CBに対して画像認識処理が行われ、その後、LL1サブバンドにおける、ラベル領域L1に対応する非差分CBに対して画像認識処理が行われる。   When the detection target is not detected from the non-differential CB corresponding to the label region L0 in the LL2 subband and the detection target is not detected from the non-differential CB corresponding to the label region L1 in the LL2 subband, LL1 sub The image recognition process is performed on the non-differential CB corresponding to the label area L0 in the band, and then the image recognition process is performed on the non-differential CB corresponding to the label area L1 in the LL1 subband.

以上のような動作を行う画像処理システム4は、対象フレーム画像に対する処理が終了すると、新たなフレーム画像を対象フレーム画像として、上記と同様の処理を行う。画像処理システム4は、あるフレーム画像を対象フレーム画像として当該あるフレーム画像に対する処理が終了すると、当該あるフレーム画像よりも後に撮影されるフレーム画像を新たな対象フレーム画像として処理を開始する。画像処理システム4は、カメラ20で撮影されるフレーム画像に対して、1フレームごとに処理を行ってもよいし、複数フレームごとに処理を行ってもよい。   When the processing on the target frame image is completed, the image processing system 4 performing the above-described operation performs the same processing as described above with the new frame image as the target frame image. When the processing on the frame image is completed with the frame image as the target frame image, the image processing system 4 starts processing as a new target frame image a frame image captured later than the frame image. The image processing system 4 may perform processing on frame images taken by the camera 20 for each frame, or may perform processing on a plurality of frames.

以上の説明から理解できるように、図29,30の例では、LLサブバンドが、分解レベルが高いものから順に、画像認識処理の対象とされている。言い換えれば、LLサブバンドが、解像度が低いものから順に、画像認識処理の対象とされている。   As can be understood from the above description, in the example of FIGS. 29 and 30, the LL sub-bands are subjected to the image recognition processing in order from the one with the highest decomposition level. In other words, the LL sub-bands are subjected to the image recognition process in order from the one with the lowest resolution.

ここで、フレーム画像において写る範囲が大きい検出対象物については、分解レベルが高いLLサブバンド(解像度が低いLLサブバンド)からでも、当該検出対象物が検出される可能性が高い。これに対して、フレーム画像において写る範囲が小さい検出対象物については、分解レベルが高いLLサブバンドから当該検出対象物を検出することができない可能性がある。本例のように、LLサブバンドが、分解レベルが高いものから順に処理対象とされることによって、データ量の多い、分解レベルが低いLLサブバンド(解像度が高いLLサブバンド)を使用することなく、フレーム画像において、写る範囲が大きい検出対象物を検出することが可能となる。上記の図31,32の例では、ラベル0のラベル領域L0に対応する検出対象物が、例えばLL3サブバンドから検出可能である場合、当該検出対象物の検出には、LL3サブバンドの分解レベルよりも高い分解レベルのLL2サブバンド及びLL1サブバンドは使用されない。よって、IoT端末2がゲートウェイ3に送信するデータ量を低減することができるとともに、ゲートウェイ3での画像認識処理を簡素化できる。   Here, with respect to the detection target having a large range in the frame image, the detection target is likely to be detected even from the LL sub-band having a high decomposition level (LL sub-band having a low resolution). On the other hand, with respect to a detection target having a small range captured in a frame image, there is a possibility that the detection target can not be detected from the LL sub-band having a high decomposition level. As in the present example, the LL subbands are processed in order from the one with the highest decomposition level to use the LL subband with a large amount of data and the low decomposition level (LL subband with high resolution) Instead, in the frame image, it is possible to detect a detection target having a large coverage. In the example of FIGS. 31 and 32 described above, when the detection target corresponding to the label region L0 of the label 0 is detectable from, for example, the LL3 sub-band, the detection level of the detection target is the resolution level of the LL3 sub-band. Higher resolution levels of the LL2 and LL1 subbands are not used. Therefore, the amount of data transmitted to the gateway 3 by the IoT terminal 2 can be reduced, and the image recognition process at the gateway 3 can be simplified.

なお、図29,30,33に示される画像処理システム4の動作はあくまでも一例であって、画像処理システム4は図29,30,33示される処理とは異なる処理を行ってもよい。   The operations of the image processing system 4 shown in FIGS. 29, 30, and 33 are merely examples, and the image processing system 4 may perform processing different from the processing shown in FIGS. 29, 30, and 33.

またゲートウェイ3は、IoT端末2からの符号化データ505を画像認識処理以外の処理で使用してもよい。   The gateway 3 may use the encoded data 505 from the IoT terminal 2 in processing other than the image recognition processing.

また上記の例では、送信対象データ503の決定において、同じ分解レベルの複数サブバンドに共通の統合サブバンドマスクが使用されているが、各サブバンドに固有のサブバンドマスク(差分フレームマスクのサブバンドマスク)を使用してもよい。この場合には、サブバンドにおいて、それに対応するサブバンドマスクの第1ROIマスク部分の少なくとも一部を含むコードブロックが差分コードブロックとなる。   In the above example, in the determination of the transmission target data 503, although the integrated subband mask common to a plurality of subbands of the same decomposition level is used, the subband mask unique to each subband (subband of the difference frame mask You may use a mask). In this case, in the sub-band, a code block including at least a part of the first ROI mask portion of the corresponding sub-band mask becomes a differential code block.

ここで、同じ分解レベルの複数のサブバンドは互いに異なる情報を示すことから、当該複数のサブバンドの間では、第1ROIマスク部分の範囲が完全に一致しないことがある。したがって、IoT端末2は、送信対象データ503の決定において、各サブバンドに固有のサブバンドマスクを使用するだけでは、同じ分解レベルの複数のサブバンドの間での同じ座標のコードブロックをゲートウェイ3に送信することができない可能性がある。   Here, since a plurality of sub-bands of the same decomposition level indicate different information from each other, the range of the first ROI mask portion may not completely match among the plurality of sub-bands. Therefore, the IoT terminal 2 gateways the code block of the same coordinates among a plurality of sub-bands of the same decomposition level only by using a sub-band mask specific to each sub-band in the determination of the transmission target data 503. May not be able to send to

一方で、ゲートウェイ3が、逆ウェーブレット変換によって、ある分解レベルのLLサブバンドを生成するためには、当該ある分解レベルよりも低い分解レベルの複数のサブバンドの間において、同じ座標のコードブロックが必要となる。   On the other hand, in order for the gateway 3 to generate LL subbands of a certain decomposition level by inverse wavelet transformation, code blocks of the same coordinates are present among a plurality of subbands of a decomposition level lower than the certain decomposition level. It will be necessary.

上記のように、同じ分解レベルの複数サブバンドに共通の統合サブバンドマスクが使用される場合には、IoT端末2は、当該複数のサブバンドの間での同じ座標のコードブロックをゲートウェイ3に容易に送信することができる。よって、ゲートウェイ3は、ある分解レベルのLLサブバンドを生成する際に、当該ある分解レベルよりも低い分解レベルの複数のサブバンドの間での同じ座標のコードブロックを使用することができる。   As described above, when a common integrated subband mask is used for multiple subbands of the same decomposition level, the IoT terminal 2 transmits, to the gateway 3, a code block of the same coordinates among the multiple subbands. It can be easily sent. Therefore, the gateway 3 can use the code block of the same coordinates among a plurality of subbands of the decomposition level lower than the certain decomposition level in generating the LL subbands of the certain decomposition level.

また、IoT端末2の決定部26は、指示情報520を使用せずに送信対象データ503を決定してもよい。この場合には、IoT端末2の処理が簡素化される。また、ゲートウェイ3は指示情報520を生成する必要がなくなることから、ゲートウェイ3の処理が簡素化する。   In addition, the determination unit 26 of the IoT terminal 2 may determine the transmission target data 503 without using the instruction information 520. In this case, the processing of the IoT terminal 2 is simplified. Moreover, since the gateway 3 does not need to generate the instruction information 520, the processing of the gateway 3 is simplified.

IoT端末2は、指示情報520を使用せずに送信対象データ503を決定する場合には、対象フレーム画像に対する処理が開始すると、例えば、LL3サブバンドに含まれる全差分CBを送信対象データ503として送信する。ゲートウェイ3は、受け取ったLL3サブバンドの全差分CBから、LL3サブバンドの全非差分CBを復元し、復元した全非差分CBから成るデータを認識用データ522として画像認識処理を行う。   When the IoT terminal 2 determines the transmission target data 503 without using the instruction information 520, when the processing on the target frame image starts, for example, the entire difference CB included in the LL3 sub-band is set as the transmission target data 503. Send. The gateway 3 restores all non-differential CBs of the LL3 sub-band from all received differential CBs of the LL3 sub-band, and performs an image recognition process using data composed of all restored non-differential CBs as recognition data 522.

ゲートウェイ3が検出対象物を検出すると、対象フレーム画像に対する処理が終了する。一方で、ゲートウェイ3が検出対象物を検出しない場合には、IoT端末2は、LL2サブバンドの全非差分CBから成るデータが示す画像が認識対象画像とされるために、LH3サブバンド、HL3サブバンド及びHH3サブバンドの全差分CBを送信対象データとして送信する。ゲートウェイ3は、LH3サブバンド、HL3サブバンド及びHH3サブバンドの全差分CBから、LH3サブバンド、HL3サブバンド及びHH3サブバンドの全非差分CBを復元する。そして、ゲートウェイ3は、すでに取得しているLL3サブバンドの全非差分CBと、LH3サブバンド、HL3サブバンド及びHH3サブバンドの全非差分CBとから成る逆変換対象データ532を逆ウェーブレット変換して、LL2サブバンドの全非差分CBを生成する。そして、ゲートウェイ3は、LL2サブバンドの全非差分CBから成るデータを認識用データ522として画像認識処理を行う。   When the gateway 3 detects a detection target, the processing on the target frame image ends. On the other hand, when the gateway 3 does not detect the detection target, the IoT terminal 2 sets the LH3 sub-band and HL3 because the image represented by the data consisting of all non-differential CBs of the LL2 sub-band is the recognition target image. The entire difference CB of the subband and the HH3 subband is transmitted as data to be transmitted. The gateway 3 restores all non-differential CBs of the LH3 subband, the HL3 subband and the HH3 subband from the total differential CB of the LH3 subband, the HL3 subband and the HH3 subband. Then, the gateway 3 performs inverse wavelet transform on inverse transform target data 532 including all non-differential CBs of LL3 subbands already acquired and all non-differential CBs of LH3 subbands, HL3 subbands and HH3 subbands. And generate all non-differential CBs of the LL2 subbands. Then, the gateway 3 performs image recognition processing using data including all non-difference CBs of the LL2 subband as the recognition data 522.

ゲートウェイ3が検出対象物を検出すると、対象フレーム画像に対する処理が終了する。一方で、ゲートウェイ3が検出対象物を検出しない場合には、IoT端末2は、LL1サブバンドの全非差分CBから成るデータが示す画像が認識対象画像とされるために、LH2サブバンド、HL2サブバンド及びHH2サブバンドの全差分CBを送信対象データ503として送信する。ゲートウェイ3は、LH2サブバンド、HL2サブバンド及びHH2サブバンドの全差分CBから、LH2サブバンド、HL2サブバンド及びHH2サブバンドの全非差分CBを復元する。そして、ゲートウェイ3は、すでに取得しているLL2サブバンドの全非差分CBと、LH2サブバンド、HL2サブバンド及びHH2サブバンドの全非差分CBとから成る逆変換対象データ532を逆ウェーブレット変換して、LL1サブバンドの全非差分CBを生成する。そして、ゲートウェイ3は、LL1サブバンドの全非差分CBから成るデータを認識用データ522として画像認識処理を行う。その後、対象フレーム画像に対する処理が終了する。   When the gateway 3 detects a detection target, the processing on the target frame image ends. On the other hand, when the gateway 3 does not detect the detection target, the IoT terminal 2 sets the LH2 sub-band and HL2 because the image represented by the data consisting of all non-differential CBs of the LL1 sub-band is the recognition target image. The entire difference CB of the subband and the HH2 subband is transmitted as transmission target data 503. The gateway 3 restores all non-differential CBs of the LH2 subband, the HL2 subband and the HH2 subband from the total differential CB of the LH2 subband, the HL2 subband and the HH2 subband. Then, the gateway 3 performs inverse wavelet transform on inverse transform target data 532 including all non-differential CBs of LL2 subbands already acquired and all non-differential CBs of LH2 subbands, HL2 subbands and HH2 subbands. Thus, all non-differential CBs of LL1 subbands are generated. Then, the gateway 3 performs an image recognition process using data consisting of all non-differential CBs of the LL1 subband as the recognition data 522. Thereafter, the process on the target frame image is completed.

なお、IoT端末2が指示情報520を使用せずに送信対象データ503を決定する場合の画像処理システム4の動作は上記の例には限られない。   The operation of the image processing system 4 in the case where the IoT terminal 2 determines the transmission target data 503 without using the instruction information 520 is not limited to the above example.

また上記の図29,30,33の例では、分解レベル順に画像認識処理が行われていたが、ラベル順に画像認識処理が行われてもよい。図34のこの場合の終了判定(ステップs19)の一例を示すフローチャートである。   Further, in the examples of FIGS. 29, 30, and 33, the image recognition process is performed in the order of decomposition levels, but the image recognition process may be performed in the order of labels. It is a flowchart which shows an example of completion | finish determination (step s19) in this case of FIG.

図34に示されるように、ステップs201において、データ処理部32は、対象ラベルに関して、検出対象物が検出されたか否かを特定する。つまり、データ処理部32は、直前のステップs18の画像認識処理において検出対象物が検出されたか否かを特定する。データ処理部32は、対象ラベルに関して、検出対象物が検出されたことを特定すると、ステップs204において、変数LNの値が、最大値max2と一致するか否かを判定する。ここで、最大値max2は、上述の最大値max1とは異なり、IoT端末2で定められたラベルのうちの最大値を意味している。図31,32の例では、最大値max2=2となる。   As shown in FIG. 34, in step s201, the data processing unit 32 specifies whether or not a detection target is detected for the target label. That is, the data processing unit 32 specifies whether or not a detection target has been detected in the image recognition process of step s18 immediately before. When the data processing unit 32 specifies that the detection target has been detected regarding the target label, in step s204, the data processing unit 32 determines whether or not the value of the variable LN matches the maximum value max2. Here, unlike the maximum value max1 described above, the maximum value max2 means the maximum value of the labels defined in the IoT terminal 2. In the example of FIGS. 31 and 32, the maximum value max2 = 2.

データ処理部32は、ステップs204において、変数LNの値が最大値max2と一致すると判定すると、対象フレーム画像に対する処理を終了することを決定する。これにより、終了判定が終了する。   When the data processing unit 32 determines in step s204 that the value of the variable LN matches the maximum value max2, the data processing unit 32 determines to end the process on the target frame image. Thus, the end determination ends.

一方で、データ処理部32は、ステップs204において、変数LNの値が最大値max2と一致しないと判定すると、ステップs205において、変数LNの値を1つ増加する。これにより、今までの対象ラベルよりも1つだけ大きいラベルが対象ラベルとなる。そしてデータ処理部32は、ステップs206において、変数LVの値を、最大分解レベル、つまり3に設定する。これにより、対象分解レベルが最大分解レベルとなる。そしてステップs207において、データ処理部32は、対象フレーム画像に対する処理を継続することを決定する。これにより、終了判定が終了する。   On the other hand, when the data processing unit 32 determines in step s204 that the value of the variable LN does not match the maximum value max2, in step s205, the value of the variable LN is increased by one. As a result, a label that is one larger than the previous target label is the target label. Then, in step s206, the data processing unit 32 sets the value of the variable LV to the maximum decomposition level, that is, 3. As a result, the target decomposition level becomes the maximum decomposition level. Then, in step s207, the data processing unit 32 determines to continue the process on the target frame image. Thus, the end determination ends.

ステップs201において、対象ラベルに関して、検出対象物が検出されていないと特定されると、データ処理部32は、ステップs202において、変数LVの値が1であるか否かを判定する。変数LVの値が1である場合、つまり対象分解レベルが1である場合、データ処理部32は、上述のステップs204を実行し、以後同様に動作する。一方で、変数LVの値が1でない場合、つまり対象分解レベルが1よりも大きい場合、データ処理部32は、ステップs203において、変数LVの値を1つ減少する。これにより、今までの対象分解レベルよりも1つ小さい分解レベルが対象分解レベルとなる。その後、データ処理部32は、ステップs207を実行して、対象フレーム画像に対する処理を継続することを決定する。   When it is determined in step s201 that the detection target is not detected regarding the target label, the data processing unit 32 determines whether the value of the variable LV is 1 in step s202. If the value of the variable LV is 1, that is, if the target decomposition level is 1, the data processing unit 32 executes the above-described step s204, and so on. On the other hand, when the value of the variable LV is not 1, that is, when the target decomposition level is larger than 1, the data processing unit 32 decreases the value of the variable LV by one in step s203. As a result, the decomposition level that is one less than the previous object decomposition levels becomes the object decomposition level. Thereafter, the data processing unit 32 executes step s207 to decide to continue the process on the target frame image.

図34に示される終了処理が実行される場合には、図31,32の例では、まず、LL3サブバンドにおける、ラベル領域L0に対応する非差分CBに対して画像認識処理が行われる。検出対象物が検出されない場合、LL2サブバンドにおける、ラベル領域L0に対応する非差分CBに対して画像認識処理が行われる。検出対象物が検出されない場合、LL1サブバンドにおける、ラベル領域L0に対応する非差分CBに対して画像認識処理が行われる。   When the end process shown in FIG. 34 is executed, in the example of FIGS. 31 and 32, first, the image recognition process is performed on the non-differential CB corresponding to the label area L0 in the LL3 subband. When the detection target is not detected, the image recognition process is performed on the non-differential CB corresponding to the label region L0 in the LL2 subband. When the detection target is not detected, the image recognition processing is performed on the non-differential CB corresponding to the label region L0 in the LL1 subband.

ラベル0に関する画像認識処理で検出対象物が検出されると、LL3サブバンドにおける、ラベル領域L1に対応する非差分CBに対して画像認識処理が行われる。検出対象物が検出されない場合、LL2サブバンドにおける、ラベル領域L1に対応する非差分CBに対して画像認識処理が行われる。検出対象物が検出されない場合、LL1サブバンドにおける、ラベル領域L1に対応する非差分CBに対して画像認識処理が行われる。   When an object to be detected is detected in the image recognition process related to label 0, the image recognition process is performed on the non-differential CB corresponding to the label area L1 in the LL3 sub-band. When the detection target is not detected, the image recognition processing is performed on the non-differential CB corresponding to the label region L1 in the LL2 subband. When the detection target is not detected, the image recognition process is performed on the non-differential CB corresponding to the label region L1 in the LL1 subband.

また上記の例では、非差分CBから成る認識用データ522が示す画像に対して画像認識処理が行われているが、差分CBから成る認識用データ522が示す画像(差分画像の少なくとも一部)に対して画像認識処理が行われてもよい。この場合には、ゲートウェイ3から復元部326が不要となり、ゲートウェイ3の構成が簡素化される。   In the above example, the image recognition processing is performed on the image represented by the recognition data 522 composed of the non-difference CB, but the image represented by the recognition data 522 composed of the difference CB (at least a part of the difference image) Image recognition processing may be performed on the image. In this case, the gateway 3 to the restoration unit 326 become unnecessary, and the configuration of the gateway 3 is simplified.

また上記の例では、トランスコーダ用復号化データ526は非差分CBで構成されていたが、差分CBで構成されてもよい。この場合には、データ処理部32では、差分画像においてROIと非ROIとを判別するためのマスクデータ525が生成される。そして、トランスコーダ34では、差分画像におけるROIを示す符号化データ590が生成され、当該符号化データ590を含むビットストリーム529がクラウドサーバ5に送信される。また、トランスコーダ用符号化データ527は、符号化差分CBで構成されてもよい。   Further, in the above example, the transcoder decoded data 526 is configured by the non-differential CB, but may be configured by the differential CB. In this case, the data processing unit 32 generates mask data 525 for determining the ROI and the non-ROI in the difference image. Then, the transcoder 34 generates encoded data 590 indicating the ROI in the difference image, and transmits a bit stream 529 including the encoded data 590 to the cloud server 5. Also, the transcoder encoded data 527 may be configured by the encoded difference CB.

またIoT端末2は、統合マスクデータ513を使用せずに、差分階層化データ502から送信対象データ503を決定してもよい。この場合には、IoT端末2は、例えば、ゲートウェイ3からの指示情報520で指定されるデータをそのまま送信対象データ503とする。   Further, the IoT terminal 2 may determine the transmission target data 503 from the difference layered data 502 without using the integrated mask data 513. In this case, for example, the IoT terminal 2 sets the data specified by the instruction information 520 from the gateway 3 as the transmission target data 503 as it is.

また、ゲートウェイ3のデータ処理部32は、ウェーブレット平面の高周波成分を認識用データ522として画像認識部33に入力する場合には、LHサブバンド、HLサブバンドあるいはHHサブバンドをそのまま認識用データ522としてもよいし、同じ分解レベルのLHサブバンド、HLサブバンド及びHHサブバンドを統合して得られる統合サブバンドを認識用データ522としてもよい。データ処理部32は、LHサブバンド、HLサブバンド及びHHサブバンドを統合する場合には、例えば、LHサブバンド、HLサブバンド及びHHサブバンドにおいて同じ位置に存在する係数の平均値を求めて、求めた平均値を、統合サブバンドにおける、それと同じ位置の係数とする。また、データ処理部32は、LHサブバンド、HLサブバンド及びHHサブバンドにおいて同じ位置に存在する係数のうちの最大値を、統合サブバンドにおける、それと同じ位置の係数としてもよい。なお、LHサブバンド、HLサブバンド及びHHサブバンドを統合する方法はこの限りではない。   Further, when the high-frequency component of the wavelet plane is input to the image recognition unit 33 as the recognition data 522, the data processing unit 32 of the gateway 3 directly recognizes the LH, HL, or HH subbands as the recognition data 522. Alternatively, integrated sub-bands obtained by integrating the LH sub-band, the HL sub-band, and the HH sub-band at the same decomposition level may be used as the recognition data 522. When integrating the LH sub-band, the HL sub-band, and the HH sub-band, for example, the data processing unit 32 obtains an average value of coefficients present at the same position in the LH sub-band, the HL sub-band and the HH sub-band , The determined average value is set as a coefficient at the same position in the integrated subband. Also, the data processing unit 32 may set the maximum value among the coefficients present at the same position in the LH subband, the HL subband and the HH subband as a coefficient at the same position in the integrated subband. Note that the method of combining the LH sub-band, the HL sub-band and the HH sub-band is not limited to this.

また、ゲートウェイ3は、IoT端末2に対して送信すべきデータを指示する場合には、ウェーブレット平面を構成する複数のサブバンド間でのコードブロックの対応関係を示すCB対応関係情報を利用してもよい。図35は、複数のサブバンド間でのコードブロックの対応関係の一例を示す図である。図35において斜線が示される部分が、互いに対応するコードブロック5021である。   In addition, when instructing the data to be transmitted to the IoT terminal 2, the gateway 3 uses CB correspondence information indicating the correspondence between code blocks among a plurality of sub-bands constituting the wavelet plane. It is also good. FIG. 35 is a diagram showing an example of the correspondence of code blocks among a plurality of subbands. The hatched portions in FIG. 35 are code blocks 5021 corresponding to each other.

ここで、複数のサブバンドの間で互いに対応するコードブロック5021は、差分画像の同じ部分を示している。図35において、LL3サブバンドの斜線の1つのコードブロック5021LL3と、LH3サブバンドの斜線の1つのコードブロック5021LH3と、HL3サブバンドの斜線の1つのコードブロック5021HL3と、HH3サブバンドの斜線の1つのコードブロック5021HH3とは、差分画像の同じ部分を示している。また、LH2サブバンドの斜線の4つのコードブロック5021LH2と、HL2サブバンドの斜線の4つのコードブロック5021HL2と、HH2サブバンドの斜線の4つのコードブロック5021HH2とは、差分画像の同じ部分を示している。また、LH1サブバンドの斜線の16個のコードブロック5021LH1と、HL1サブバンドの斜線の16個のコードブロック5021HL1と、HH1サブバンドの斜線の16個のコードブロック5021HH1とは、差分画像の同じ部分を示している。また、分解レベル3の各サブバンドの斜線の1つのコードブロック5021と、分解レベル2の各サブバンドの斜線の4つのコードブロック5021と、分解レベル1の各サブバンドの斜線の16個のコードブロック5021とは、差分画像の同じ部分を示している。   Here, code blocks 5021 corresponding to each other among a plurality of sub-bands indicate the same part of the difference image. In FIG. 35, one hatched code block 5021 LL3 of the LL3 subband, one hatched code block 5021 LH3 of the LH3 subband, one hatched code block 5021 HL3 of the HL3 subband, and one hatched HH3 subband. One code block 5021HH3 indicates the same part of the difference image. Also, the four code blocks 5021 LH2 of oblique lines in the LH 2 subband, the four code blocks 5021 HL2 of oblique lines in the HL 2 subband, and the four code blocks 5021 HH 2 of oblique lines in the HH 2 subband indicate the same part of the difference image. There is. In addition, the 16 code blocks 5021 LH 1 hatched in the LH 1 subband, the 16 code blocks 50 21 HL 1 hatched in the HL 1 subband, and the 16 code blocks 50 21 HH 1 hatched in the HH 1 subband are the same parts of the difference image. Is shown. Also, one code block 5021 of diagonal lines of each subband of decomposition level 3, four code blocks 5021 of diagonal lines of each subband of decomposition level 2, and 16 codes of diagonal lines of each subband of decomposition level 1 Block 5021 shows the same part of the difference image.

ゲートウェイ3は、図35に示されるような、複数のサブバンド間でのコードブロックの対応関係を示すCB対応関係情報を記憶している。ゲートウェイ3は、CB対応関係情報を利用して指定データを決定する場合には、対象フレーム画像に対する処理が開始すると、例えば、図35において斜線で示される、LL3サブバンドのコードブロック5021LL3を指定データとして指示情報520を送信する。この指示情報520を受け取ったIoT端末2は、コードブロック5021LL3を送信対象データ503として送信する。ゲートウェイ3は、受け取ったコードブロック5021LL3から、それに対応する非差分CBを復元し、復元した非差分CBを認識用データ522として画像認識処理を行う。   The gateway 3 stores CB correspondence information indicating the correspondence between code blocks among a plurality of subbands as shown in FIG. When the gateway 3 determines the designated data using the CB correspondence information, when the process on the target frame image starts, the gateway 3 designates the code block 5021LL3 of the LL3 subband indicated by hatching in FIG. 35, for example. The instruction information 520 is transmitted as The IoT terminal 2 having received the instruction information 520 transmits the code block 5021LL3 as the transmission target data 503. The gateway 3 restores the non-differential CB corresponding to the received code block 5021LL 3, and performs the image recognition processing with the restored non-differential CB as the recognition data 522.

ゲートウェイ3が検出対象物を検出すると、対象フレーム画像に対する処理が終了する。一方で、ゲートウェイ3は、検出対象物を検出しない場合には、LL2サブバンドを処理対象とするために、図35において斜線で示される、LH3サブバンドのコードブロック5021LH3、HL3サブバンドのコードブロック5021HL3及びHH3サブバンドのコードブロック5021HH3を指定データとして指示情報520を送信する。この指示情報520を受け取ったIoT端末2は、コードブロック5021LH3,5021HL3,5021HH3を送信対象データ503として送信する。ゲートウェイ3は、IoT端末2から受け取ったコードブロック5021LH3,5021HL3,5021HH3から、それぞれに対応する非差分CBを復元する。そして、ゲートウェイ3は、すでに取得している、コードブロック5021LL3に対応する非差分CBと、復元した、コードブロック5021LH3,5021HL3,5021HH3に対応する非差分CBとから成る逆変換対象データ522を逆ウェーブレット変換する。これにより、コードブロック5021LL3,5021LH3,5021HL3,5021HH3に対応する、LL2サブバンドの4つのコードブロック5021に対応する非差分CBが生成される。ゲートウェイ3は、生成した非差分CBを認識用データ522として画像認識処理を行う。   When the gateway 3 detects a detection target, the processing on the target frame image ends. On the other hand, when the gateway 3 does not detect the detection target, the code block 5021LH3 of LH3 subband and the code block of HL3 subband which are indicated by hatching in FIG. 35 in order to process the LL2 subband. The instruction information 520 is transmitted with the code blocks 5021HH3 of the 5021 HL3 and HH3 subbands as specification data. The IoT terminal 2 that has received the instruction information 520 transmits the code blocks 5021 LH 3, 5021 HL 3, 502 1 HH 3 as the transmission target data 503. The gateway 3 restores the corresponding non-differential CBs from the code blocks 5021 LH 3, 5021 HL 3, 502 1 HH 3 received from the IoT terminal 2. Then, the gateway 3 performs inverse wavelet transform on the inverse transformation target data 522 including the non-differential CB corresponding to the code block 5021LL3 and the non-differential CB corresponding to the code block 5021LH3, 5021HL3, 5021HH3 which has already been acquired. Convert. As a result, non-differential CBs corresponding to four code blocks 5021 of the LL2 sub-band corresponding to the code blocks 5021 LL3, 5021 LH 3, 5021 HL 3, 502 1 HH 3 are generated. The gateway 3 performs an image recognition process with the generated non-differential CB as the recognition data 522.

ゲートウェイ3が検出対象物を検出すると、対象フレーム画像に対する処理が終了する。一方で、ゲートウェイ3は、検出対象物を検出しない場合には、LL1サブバンドを処理対象とするために、図35において斜線で示される、LH2サブバンドの4つのコードブロック5021LH2、HL2サブバンドの4つのコードブロック5021HL2及びHH2サブバンドの4つのコードブロック5021HH2を指定データとして指示情報520を送信する。この指示情報520を受け取ったIoT端末2は、4つのコードブロック5021LH2、4つのコードブロック5021HL2及び4つのコードブロック5021HH2を、送信対象データ503として送信する。ゲートウェイ3は、IoT端末2から受け取った、LH2サブバンドの4つのコードブロック5021LH2、HL2サブバンドの4つのコードブロック5021HL2及びHH2サブバンドの4つのコードブロック5021HH2から、それぞれに対応する非差分CBを復元する。そして、ゲートウェイ3は、すでに取得している、LL2サブバンドの4つのコードブロックに対応する非差分CBと復元した非差分CBとから成る逆変換対象データ522を逆ウェーブレット変換する。これにより、分解レベル2の各サブバンドの4つのコードブロックに対応する、LL1サブバンドの16個のコードブロックに対応する非差分CBが生成される。ゲートウェイ3は、生成した非差分CBを認識用データ522として画像認識処理を行う。その後、対象フレーム画像に対する処理が終了する。   When the gateway 3 detects a detection target, the processing on the target frame image ends. On the other hand, when the gateway 3 does not detect the detection target, in order to process the LL1 sub-band, the four code blocks 5021 LH 2 and L H 2 sub-bands of the LH 2 sub-band are hatched in FIG. The instruction information 520 is transmitted with four code blocks 5021HH2 of four code blocks 5021HL2 and HH2 subbands as specification data. The IoT terminal 2 having received the instruction information 520 transmits the four code blocks 5021LH2, the four code blocks 5021HL2 and the four code blocks 5021HH2 as the transmission target data 503. The gateway 3 receives the non-differential CBs corresponding to the four code blocks 5021LH2 of the LH2 subband, the four code blocks 5021HL2 of the HL2 subband, and the four code blocks 5021HH2 of the HH2 subband received from the IoT terminal 2 Restore. Then, the gateway 3 performs inverse wavelet transform on the inverse transformation target data 522 including the already acquired non-differential CBs corresponding to the four code blocks of the LL2 subband and the restored non-differential CB. Thereby, non-differential CBs corresponding to 16 code blocks of LL1 subbands corresponding to 4 code blocks of each subband of decomposition level 2 are generated. The gateway 3 performs an image recognition process with the generated non-differential CB as the recognition data 522. Thereafter, the process on the target frame image is completed.

なお、ゲートウェイ3がCB対応関係情報を使用して指定データを決定する場合の画像処理システム4の動作は上記の例には限られない。   The operation of the image processing system 4 when the gateway 3 determines the designation data using the CB correspondence information is not limited to the above example.

<各種変形例>
以下に画像処理システム4の各種変形例について説明する。
<Various modifications>
Hereinafter, various modifications of the image processing system 4 will be described.

<第1変形例>
上記の例では、IoT端末2は、差分CBを送信するか、非差分CBを送信するかを、ゲートウェイ3からの指示に応じて決定していたが、ゲートウェイ3からの指示なく自ら決定してもよい。この場合には、ゲートウェイ3は、差分CBか非差分CBかを特定せずに、IoT端末2が送信すべきコードブロックを指示情報520を用いて指定する。以下に本変形例に係る画像処理システム4の動作を上述の図29,30を用いて説明する。
First Modified Example
In the above example, although the IoT terminal 2 determines whether to transmit the differential CB or transmit the non-differential CB according to the instruction from the gateway 3, it determines itself without the instruction from the gateway 3 It is also good. In this case, the gateway 3 designates the code block to be transmitted by the IoT terminal 2 using the instruction information 520 without specifying the differential CB or the non-differential CB. The operation of the image processing system 4 according to the present modification will be described below with reference to FIGS.

対象フレーム画像に対する処理が開始すると、図29に示されるように、ステップs11において、ゲートウェイ3は、上記と同様に、最大分解レベルのLLサブバンドを処理対象とする。そして第1処理部321は、対象LLサブバンドの分解レベルを示す変数LVを3に設定する。第1処理部321は、対象LLサブバンドのコードブロックを指定データとして決定する。   When the processing on the target frame image starts, as shown in FIG. 29, in step s11, the gateway 3 targets the LL subband of the maximum decomposition level as described above. Then, the first processing unit 321 sets a variable LV indicating the decomposition level of the target LL subband to 3. The first processing unit 321 determines the code block of the target LL subband as specification data.

次にステップs12において、ゲートウェイ3は、ステップs11で決定した指定データをIoT端末2に通知するための指示情報520を生成してIoT端末2に送信する。   Next, in step s12, the gateway 3 generates instruction information 520 for notifying the IoT terminal 2 of the designated data determined in step s11, and transmits the instruction information 520 to the IoT terminal 2.

IoT端末2は、図30に示されるように、ステップs31において指示情報520を受信する。次にステップs32において、IoT端末2の決定部26は、指示情報520と統合マスクデータ513とに基づいて送信対象データ503を決定する。   The IoT terminal 2 receives the instruction information 520 in step s31, as shown in FIG. Next, in step s32, the determination unit 26 of the IoT terminal 2 determines transmission target data 503 based on the instruction information 520 and the integrated mask data 513.

ステップs32では、決定部26は、上記と同様に、番号が最も小さいラベルを対象ラベルとする。そして決定部26の送信対象決定部263は、差分階層化データ502の対象LLサブバンドにおける、対象ラベルのラベル領域に対応する差分CBと、非差分階層化データ501の対象LLサブバンドにおける、対象ラベルのラベル領域に対応する非差分CBとを特定する。特定された差分CB及び非差分CBは、送信対象データ503に含められる候補となる。   In step s32, the determination unit 26 sets the label with the smallest number as the target label, as described above. The transmission target determination unit 263 of the determination unit 26 determines the target in the target CB of the differential hierarchical data 502, the differential CB corresponding to the label area of the target label, and the target LL subband of the non-differential hierarchical data 501. Identify the non-differential CB corresponding to the label area of the label. The identified differential CB and non-differential CB are candidates to be included in the transmission target data 503.

送信対象決定部263は、特定した差分CB及び非差分CBをそれぞれ候補差分CB及び候補非差分CBとしてCB比較処理を行う。このCB比較処理では、候補差分CBのデータ量と、それと同じ座標の候補非差分CBのデータ量とが比較される。図36はCB比較処理の一例を示すフローチャートである。   The transmission target determination unit 263 performs the CB comparison processing with the identified difference CB and the non-difference CB as the candidate difference CB and the candidate non-difference CB, respectively. In this CB comparison processing, the data amount of the candidate difference CB and the data amount of the candidate non-difference CB at the same coordinates are compared. FIG. 36 is a flowchart showing an example of the CB comparison process.

図36に示されるように、送信対象決定部263は、ステップs320において、候補差分CBのデータ量を求める。このデータ量を第1データ量とする。送信対象決定部263は、例えば、候補差分CBに含まれる複数の係数(差分WT係数)の絶対値の総和を求め、求めた総和を第1データ量とする。次にステップs321において、送信対象決定部263は、ステップs320でデータ量を求めた候補差分CBの座標と同じ座標の候補非差分CBのデータ量を求める。このデータ量を第2データ量とする。送信対象決定部263は、例えば、候補非差分CBに含まれる複数の係数(ウェーブレット係数)の絶対値の総和を求め、求めた総和を第2データ量とする。   As shown in FIG. 36, the transmission target determining unit 263 obtains the data amount of the candidate difference CB in step s320. This data amount is taken as a first data amount. For example, the transmission target determining unit 263 obtains the sum of the absolute values of a plurality of coefficients (difference WT coefficients) included in the candidate difference CB, and sets the obtained sum as the first data amount. Next, in step s321, the transmission target determination unit 263 obtains the data amount of the candidate non-difference CB having the same coordinates as the coordinates of the candidate difference CB for which the data amount has been obtained in step s320. This data amount is taken as a second data amount. For example, the transmission target determination unit 263 obtains a sum of absolute values of a plurality of coefficients (wavelet coefficients) included in the candidate non-difference CB, and sets the obtained sum as a second data amount.

次にステップs322において、送信対象決定部263は、第1データ量が第2データ量よりも大きいか否かを判定する。第1データ量が第2データ量よりも大きい場合には、送信対象決定部263は、ステップs323において、候補非差分CBを送信対象データ503に含める。一方で、第1データ量が第2データ量以下であれば、送信対象決定部263は、ステップs324において、候補差分CBを送信対象データ503に含める。なお、送信対象決定部263は、第1データ量が第2データ量以上のときに候補非差分CBを送信対象データ503に含め、第1データ量が第2データ未満のときに候補差分CBを送信対象データ503に含めてもよい。   Next, in step s322, the transmission target determination unit 263 determines whether the first data amount is larger than the second data amount. If the first data amount is larger than the second data amount, the transmission target determination unit 263 includes the candidate non-differential CB in the transmission target data 503 in step s323. On the other hand, if the first data amount is equal to or less than the second data amount, the transmission target determining unit 263 includes the candidate difference CB in the transmission target data 503 in step s324. The transmission target determination unit 263 includes the candidate non-differential CB in the transmission target data 503 when the first data amount is equal to or greater than the second data amount, and the candidate difference CB when the first data amount is less than the second data. It may be included in the transmission target data 503.

以上のようなCB比較処理を送信対象決定部263が各候補差分CBについて実行することによって、送信対象データ503が決定される。   The transmission target determination unit 263 executes the above-described CB comparison process for each candidate difference CB to determine the transmission target data 503.

このように、本変形例では、候補差分CB及び候補非差分CBのうち、データ量が小さい方のコードブロックが、送信対象データ503に含まれる。つまり、候補差分CB及び候補非差分CBのうち、データ量が小さい方のコードブロックが、ゲートウェイ3に送信される。カメラ20の撮影環境等によっては、候補差分CBのデータ量が常に候補非差分CBのデータ量よりも小さくなるとは限らないことから、候補差分CB及び候補非差分CBのうち、データ量が小さい方のコードブロックが、ゲートウェイ3に送信されることによって、IoT端末2が送信するデータ量を低減することができる。よって、IoT端末2の消費電力をさらに低減することができる。また、IoT端末2から送信される符号化データの送信遅延をさらに低減することができる。   As described above, in the present modification, the code block of the smaller data amount among the candidate difference CB and the candidate non-difference CB is included in the transmission target data 503. That is, the code block of the smaller data amount among the candidate difference CB and the candidate non-difference CB is transmitted to the gateway 3. Depending on the shooting environment of the camera 20, the amount of data of the candidate difference CB is not always smaller than the amount of data of the candidate non-difference CB. The code block is transmitted to the gateway 3 to reduce the amount of data transmitted by the IoT terminal 2. Therefore, the power consumption of the IoT terminal 2 can be further reduced. Moreover, the transmission delay of the coding data transmitted from the IoT terminal 2 can be further reduced.

決定部26は、送信対象データ503を決定すると、送信対象データ503に含まれる各コードブロックについて、それが差分CBであるのか、非差分CBであるのかをゲートウェイ3が特定するためのCB特定信号を生成する。   When the determination unit 26 determines the transmission target data 503, the CB specifying signal for the gateway 3 to specify whether each code block included in the transmission target data 503 is a difference CB or a non-difference CB. Generate

ステップs32が実行されると、IoT端末2は、上記と同様にしてステップs33,s34を実行する。そしてステップs35において、IoT端末2は、ステップs34で生成された符号化データ505を含むビットストリーム506と、ステップs33で生成された座標データ504と、ステップs32で生成されたCB特定信号とを、ゲートウェイ3に送信する。このとき、IoT端末2は、ラベリング処理で得られたラベルの番号をゲートウェイ3に通知するとともに、現在の対象ラベルをゲートウェイ3に通知する。   When step s32 is executed, the IoT terminal 2 executes steps s33 and s34 in the same manner as described above. Then, in step s35, the IoT terminal 2 adds the bit stream 506 including the encoded data 505 generated in step s34, the coordinate data 504 generated in step s33, and the CB identification signal generated in step s32. Send to gateway 3. At this time, the IoT terminal 2 notifies the gateway 3 of the label number obtained in the labeling process, and notifies the gateway 3 of the current target label.

図29に戻って、ステップs12の後、ゲートウェイ3の受信部30aは、ステップs13において、IoT端末2からのビットストリーム506、座標データ504及びCB特定信号を受信する。そしてステップs14において、ビットストリーム506に含まれる符号化データ505が第2メモリ324に記憶され、座標データ504が座標メモリ36の座標テーブル36aに記憶される。また、復号化装置31で符号化データ505が伸張復号化されて復号化データ521が生成される。   Referring back to FIG. 29, after step s12, the reception unit 30a of the gateway 3 receives the bit stream 506, the coordinate data 504, and the CB identification signal from the IoT terminal 2 in step s13. Then, in step s14, the encoded data 505 included in the bit stream 506 is stored in the second memory 324, and the coordinate data 504 is stored in the coordinate table 36a of the coordinate memory 36. Further, the encoded data 505 is decompressed and decoded by the decoding device 31 to generate decoded data 521.

次にステップs15において、データ処理部32の選択部325は、IoT端末2からのCB特定信号に基づいて、復号化データ521に含まれる各コードブロックが、差分CBであるのか、非差分CBであるのかを特定する。そして、選択部325は、復号化データ521に含まれる差分CBについては復元部326に出力する。一方で、選択部325は、復号化データ521に含まれる非差分CBについては第1処理部321に出力する。復元部326は、上記と同様にして、入力される差分CBから非差分CBを復元して第1処理部321に入力する。第1処理部321は、復元部326から受け取った非差分CBを第1メモリ323に記憶する。また第1処理部321は、選択部325から受け取った非差分CBを第1メモリ323に記憶する。   Next, in step s15, based on the CB identification signal from the IoT terminal 2, the selection unit 325 of the data processing unit 32 determines whether each code block included in the decoded data 521 is a difference CB or a non-difference CB. Identify if there is. Then, the selection unit 325 outputs the difference CB included in the decoded data 521 to the restoration unit 326. On the other hand, the selection unit 325 outputs the non-differential CB included in the decoded data 521 to the first processing unit 321. In the same manner as described above, the restoration unit 326 restores the non-difference CB from the input difference CB and inputs the non-difference CB to the first processing unit 321. The first processing unit 321 stores the non-differential CB received from the restoration unit 326 in the first memory 323. The first processing unit 321 also stores the non-difference CB received from the selection unit 325 in the first memory 323.

次にゲートウェイ3は、上記同様にして、ステップs16〜s19を実行する。ステップs19の終了判定において、データ処理部32が対象フレーム画像に対する処理を終了すると決定すると、ステップs20において、ゲートウェイ3は終了通知をIoT端末2に行う。ゲートウェイ3は、対象フレーム画像から検出対象物が検出された場合には、ステップs20の後のステップs21において、検出対象物が写る検出対象物画像を示す符号化データ590を含むビットストリーム529をトランスコーダ34で生成する。そして、ゲートウェイ3は、生成したビットストリーム529と、画像認識部33が生成する、対象フレーム画像に関する認識結果情報524とを、通信部35からクラウドサーバ5に送信する。これにより、対象フレーム画像に対する処理が終了する。   Next, the gateway 3 executes steps s16 to s19 in the same manner as described above. If it is determined in step s19 that the data processing unit 32 ends processing on the target frame image in the end determination of step s19, the gateway 3 sends an end notification to the IoT terminal 2 in step s20. When the detection target is detected from the target frame image, in step s21 after step s20, the gateway 3 transcodes the bit stream 529 including the encoded data 590 indicating the detection target image in which the detection target is captured. It is generated by the coder 34. Then, the gateway 3 transmits the generated bit stream 529 and the recognition result information 524 on the target frame image generated by the image recognition unit 33 from the communication unit 35 to the cloud server 5. Thus, the process on the target frame image is completed.

ステップs19の終了判定において、データ処理部32が対象フレーム画像に対する処理を継続すると決定すると、ゲートウェイ3はステップs11を再度実行して、指定データを決定する。このステップs11では、変数LN,LVが現在示す値に基づいて指定データが決定される。   If it is determined in step s19 that the data processing unit 32 continues the process on the target frame image in the end determination of step s19, the gateway 3 executes step s11 again to determine designated data. In step s11, designated data is determined based on the values currently indicated by the variables LN and LV.

第1処理部321は、変数LVが現在示す対象分解レベルが、最大分解レベルである場合、LL3サブバンドのうち、変数LNが現在示す対象ラベルのラベル領域に対応するコードブロックを指定データとする。   When the target decomposition level currently indicated by the variable LV is the maximum decomposition level, the first processing unit 321 designates, as designated data, a code block corresponding to the label area of the target label currently indicated by the variable LN in the LL3 subband. .

また第1処理部321は、変数LVが現在示す対象分解レベルが、最大分解レベル以外である場合、対象分解レベルよりも分解レベルが1つ高いLHサブバンド、HLサブバンド及びHHサブバンドにおける、対象ラベルのラベル領域に対応するコードブロックを指定データとする。   In addition, when the target decomposition level currently indicated by the variable LV is other than the maximum decomposition level, the first processing unit 321 applies to the LH, HL, and HH subbands whose decomposition level is one higher than the target decomposition level, A code block corresponding to the label area of the target label is set as designated data.

ゲートウェイ3は、ステップs11を実行すると、ステップs12において、ステップs11で決定した指定データを通知するための指示情報520を生成する。そして、ゲートウェイ3は、生成した指示情報520をIoT端末2に送信する。   After executing step s11, the gateway 3 generates instruction information 520 for notifying of the designated data determined in step s11 in step s12. Then, the gateway 3 transmits the generated instruction information 520 to the IoT terminal 2.

IoT端末2は、ステップs31において指示情報520を受信すると、ステップs32において、受信した指示情報520と統合マスクデータ513とに基づいて、送信対象データ503を決定する。このステップs31では、IoT端末2の決定部26は、差分階層化データ502において、指示情報520によって指定されるコードブロック(差分CB)を統合マスクデータ513に基づいて特定するとともに、非差分階層化データ501において、指示情報520によって指定されるコードブロック(非差分CB)を特定する。そして、決定部26は、特定した差分CB及び非差分CBをそれぞれ候補差分CB及び候補非差分CBとして、上記のCB比較処理を行う。これにより、送信対象データ503が決定される。以後、画像処理システム4は同様に動作する。   When receiving the instruction information 520 in step s31, the IoT terminal 2 determines transmission target data 503 on the basis of the received instruction information 520 and the integrated mask data 513 in step s32. In step s31, the determination unit 26 of the IoT terminal 2 specifies the code block (difference CB) designated by the instruction information 520 in the difference layered data 502 based on the integrated mask data 513, and makes the non-difference layering. In the data 501, the code block (non-differential CB) specified by the instruction information 520 is specified. Then, the determination unit 26 performs the above-described CB comparison processing with the identified difference CB and the non-difference CB as the candidate difference CB and the candidate non-difference CB, respectively. Thus, transmission target data 503 is determined. Thereafter, the image processing system 4 operates in the same manner.

なお、本変形例においても、ステップs19において図34に示される終了判定が実行されてもよい。   Also in the present modification, the end determination shown in FIG. 34 may be executed in step s19.

<第2変形例>
IoT端末2が、例えば、移動するロボットあるいはドローンなどに搭載される場合、IoT端末2のカメラ20の位置が変化する。またIoT端末2が、人の手によって持たれる場合、手振れによって、カメラ20の位置が変化する。カメラ20の位置が変化すると、フレーム画像内での被写体全体の画像(以後、被写体全体画像と呼ぶことがある)の位置が変化することから、カメラ20の位置の変化の影響がフレーム画像に現れる。その結果、カメラ20の撮影範囲において、人などの移動する物体が存在する領域が小さいにもかかわらず、上述の図18とは異なり、統合サブバンドマスク5126の大部分が第2ROIマスク部分5126a(白抜き部分)となる可能性がある。その結果、差分階層化データ502を構成する複数のコードブロックの大部分が差分CBとなる可能性がある。これにより、IoT端末2の送信データ量があまり低減しない可能性がある。
Second Modified Example
When the IoT terminal 2 is mounted on, for example, a moving robot or a drone, the position of the camera 20 of the IoT terminal 2 changes. When the IoT terminal 2 is held by human hands, the position of the camera 20 changes due to camera shake. When the position of the camera 20 changes, the position of the image of the entire subject in the frame image (hereinafter, may be referred to as the entire object image) changes, so the influence of the change in the position of the camera 20 appears in the frame image. . As a result, in the imaging range of the camera 20, although the area in which a moving object such as a person is present is small, unlike in FIG. 18 described above, most of the integrated sub-band mask 5126 is the second ROI mask portion 5126a ( There is a possibility of becoming a white part). As a result, most of the plurality of code blocks constituting the difference hierarchical data 502 may become the difference CB. As a result, the amount of transmission data of the IoT terminal 2 may not be reduced significantly.

そこで、本変形例では、IoT端末2は、フレーム画像データ500に対して、カメラ20の位置の変化の影響を補正する処理を行う。これにより、カメラ20の撮影範囲において、人などの移動する物体が存在する領域が小さいにもかかわらず、差分階層化データ502を構成する複数のコードブロックの大部分が差分CBとなる可能性を低減することができる。その結果、IoT端末2の送信データ量をより確実に低減することができる。   Therefore, in the present modification, the IoT terminal 2 performs a process of correcting the influence of the change of the position of the camera 20 on the frame image data 500. As a result, although the area where the moving object such as a person is present is small in the imaging range of the camera 20, most of the plurality of code blocks constituting the differential layered data 502 may become the difference CB. It can be reduced. As a result, the amount of transmission data of the IoT terminal 2 can be reduced more reliably.

図37は本変形例に係るIoT端末2の構成の一例を示す図である。図37に示されるように、本変形例に係るIoT端末2は、上述の図3に示されるIoT端末2において、動き補正部28をさらに備えるものである。   FIG. 37 is a diagram showing an example of the configuration of the IoT terminal 2 according to the present modification. As shown in FIG. 37, the IoT terminal 2 according to the present modification further includes a motion correction unit 28 in the IoT terminal 2 shown in FIG. 3 described above.

動き補正部28は、フレーム画像データ500に対して、カメラ20の位置の変化の影響を補正する動き補正処理を行う。階層化部22は、動き補正処理後のフレーム画像データ500であるフレーム画像データ500aを階層化し、それよって得られた階層化データ501を出力する。動き補正部28の少なくとも一部は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてよい。また、動き補正部28の少なくとも一部は、コンピュータがプログラムを実行することによって実現される機能ブロックであってもよい。IoT端末2のその他の動作については上記と同様である。   The motion correction unit 28 performs a motion correction process on the frame image data 500 to correct the influence of the change in the position of the camera 20. The hierarchization unit 22 hierarchizes the frame image data 500a which is the frame image data 500 after the motion correction processing, and outputs the hierarchized data 501 obtained thereby. At least a part of the motion correction unit 28 may be realized by a hardware circuit that does not require software to realize its function. In addition, at least a part of the motion correction unit 28 may be a functional block realized by the computer executing a program. The other operations of the IoT terminal 2 are the same as described above.

図38は動き補正部28の構成の一例を示す図である。図38に示されるように、動き補正部28は、補正部280及びフレームバッファ281を備える。補正部280は、画像メモリ21からフレーム画像データ500を読み出してフレームバッファ281に記憶する。動き補正部280は、画像メモリ21から、現フレーム画像データ500(対象フレーム画像データ500)を読み出すと、現フレーム画像データ500と、フレームバッファ231に記憶される、過去に生成されたフレーム画像データ500(過去フレーム画像データ500と呼ぶことがある)とに基づいて、現フレーム画像データ500に対して動き補正処理を行う。過去フレーム画像データ500は、現フレーム画像データ500よりもQフレーム前のフレーム画像データ500である。Qの値は上述のPの値と同じであってもよいし、異なってもよい。   FIG. 38 is a diagram showing an example of the configuration of the motion correction unit 28. As shown in FIG. As shown in FIG. 38, the motion correction unit 28 includes a correction unit 280 and a frame buffer 281. The correction unit 280 reads the frame image data 500 from the image memory 21 and stores the frame image data 500 in the frame buffer 281. When the motion correction unit 280 reads the current frame image data 500 (target frame image data 500) from the image memory 21, the current frame image data 500 and the frame image data generated in the past and stored in the frame buffer 231 The motion correction process is performed on the current frame image data 500 based on 500 (sometimes referred to as past frame image data 500). The past frame image data 500 is frame image data 500 Q frames before the current frame image data 500. The value of Q may be the same as or different from the value of P described above.

図39は動き補正処理の一例を示すフローチャートである。図39に示されるように、動き補正処理では、まずステップs51において、補正部280は、現フレーム画像データ500と、フレームバッファ281内の過去フレーム画像データ500とに基づいて、フレーム画像内での被写体全体画像の動きベクトルを求める。   FIG. 39 is a flowchart showing an example of the motion correction process. As shown in FIG. 39, in the motion correction process, first, at step s51, the correction unit 280 performs correction within a frame image based on the current frame image data 500 and the past frame image data 500 in the frame buffer 281. The motion vector of the entire image of the subject is obtained.

動きベクトルについては、様々な方法で求めることができる。例えば、補正部280は、現フレーム画像の背景領域の位置と、過去フレーム画像の背景領域の位置とに基づいて動きベクトルを求めることができる。フレーム画像の背景領域とは、フレーム画像において、ゲートウェイ3での画像認識処理で検出される検出対象物(例えは人)の画像以外の部分である。フレーム画像の背景領域は、例えば、ゲートウェイ3での過去の画像認識処理の結果に基づいて特定することができる。またIoT端末2は、フレーム画像の背景領域を特定するための背景情報を予め記憶していてもよい。   The motion vector can be determined in various ways. For example, the correction unit 280 can obtain a motion vector based on the position of the background area of the current frame image and the position of the background area of the past frame image. The background area of the frame image is a portion other than the image of the detection target (for example, a person) detected in the image recognition processing in the gateway 3 in the frame image. The background area of the frame image can be identified based on, for example, the result of the past image recognition processing in the gateway 3. Also, the IoT terminal 2 may store in advance background information for specifying a background area of a frame image.

補正部280は、ステップs51において動きベクトルを求めると、ステップs52において、求めた動きベクトルに基づいて現フレーム画像を補正する。ステップs52では、補正部280は、まず、動きベクトルの水平方向成分を、現フレーム画像についての水平方向の補正量である水平補正量CXとし、求めた動きベクトルの垂直方向成分を、現フレーム画像についての垂直方向の補正量である垂直補正量CYとする。そして、補正部280は、現フレーム画像内において、被写体全体画像を、水平方向に水平補正量CXだけ移動し、垂直方向に垂直補正量CYだけ移動して、現フレーム画像を補正する。補正後の現フレーム画像を示すフレーム画像データ500が、動き補正処理後の現フレーム画像データ500となる。   After obtaining the motion vector in step s51, the correction unit 280 corrects the current frame image based on the obtained motion vector in step s52. In step s52, the correction unit 280 first sets the horizontal direction component of the motion vector as the horizontal correction amount CX, which is the horizontal correction amount for the current frame image, and the vertical direction component of the obtained motion vector, as the current frame image The vertical correction amount CY, which is the vertical correction amount for. Then, the correction unit 280 moves the entire subject image in the horizontal direction by the horizontal correction amount CX and moves in the vertical direction by the vertical correction amount CY in the current frame image to correct the current frame image. Frame image data 500 indicating the current frame image after correction becomes current frame image data 500 after motion correction processing.

図40は動き補正処理の概要を示す図である。図40の上側には、過去フレーム画像5010a及び現フレーム画像5010bの一例が示されている。図40の中央には、図40に示される過去フレーム画像5010a及び現フレーム画像5010bから求められる水平補正量CX及び垂直補正量CYが示されている。図40の下側には、図40に示される水平補正量CX及び垂直補正量CYに基づいて補正された現フレーム画像5010bが示されている。補正後の現フレーム画像5010bでは、被写体全体画像5011bの位置が、カメラ20の位置の変化による影響をキャンセルするように変化して当該影響が補正されている。なお、現フレーム画像5010bでの被写体全体画像5011bの位置が補正されることにより、補正後の現フレーム画像5010bでは、被写体全体画像5011bが存在しない領域5012bが生じる。この領域5012bの各画素値は例えば零に設定される。   FIG. 40 is a diagram showing an outline of the motion correction process. On the upper side of FIG. 40, an example of the past frame image 5010a and the current frame image 5010b is shown. At the center of FIG. 40, the horizontal correction amount CX and the vertical correction amount CY obtained from the past frame image 5010a and the current frame image 5010b shown in FIG. 40 are shown. At the lower side of FIG. 40, a current frame image 5010b corrected based on the horizontal correction amount CX and the vertical correction amount CY shown in FIG. 40 is shown. In the current frame image 5010b after correction, the position of the entire object image 5011b changes so as to cancel the influence of the change of the position of the camera 20, and the influence is corrected. Note that the position of the entire subject image 5011b in the current frame image 5010b is corrected, so that an area 5012b in which the entire subject image 5011b does not exist is generated in the corrected current frame image 5010b. Each pixel value of this area 5012 b is set to, for example, zero.

以上のように、IoT端末2は、フレーム画像データ500に対して、カメラ20の位置の変化の影響を補正する処理を行うことから、カメラ20の撮影範囲において、人などの移動する物体が存在する領域が小さいにもかかわらず、差分階層化データ502を構成する複数のコードブロックの大部分が差分CBとなる可能性を低減することができる。その結果、IoT端末2の送信データ量をより確実に低減することができる。   As described above, since the IoT terminal 2 performs processing for correcting the influence of the change in the position of the camera 20 on the frame image data 500, there is a moving object such as a person in the imaging range of the camera 20. Even though the region to be processed is small, it is possible to reduce the possibility that most of the plurality of code blocks constituting the difference layered data 502 become the difference CB. As a result, the amount of transmission data of the IoT terminal 2 can be reduced more reliably.

なおIoT端末2は、フレーム画像データ500に対してではなく、階層化部22で生成される階層化データに対して動き補正処理を行ってもよい。図41はこの場合のIoT端末2が備える階層化部22の構成の一例を示す図である。以後、フレーム画像データ500に対して行う上記の動き補正処理を第1動き補正処理と呼び、階層化データに対して行う動き補正処理を第2動き補正処理と呼ぶことがある。   The IoT terminal 2 may perform the motion correction process not on the frame image data 500 but on the hierarchical data generated by the hierarchical unit 22. FIG. 41 is a diagram showing an example of the configuration of the layering unit 22 provided in the IoT terminal 2 in this case. Hereinafter, the above-described motion correction processing performed on the frame image data 500 may be referred to as a first motion correction processing, and the motion correction processing performed on the hierarchical data may be referred to as a second motion correction processing.

図41に示されるように、本変形例に係る階層化部22は、上述の図5に示される階層化部22において、動き補正部226をさらに備えるものである。   As shown in FIG. 41, the layering unit 22 according to this modification further includes a motion correction unit 226 in the layering unit 22 shown in FIG. 5 described above.

動き補正部226は、ウェーブレット変換部224から出力される階層化データ510に対して第2動き補正処理を行う。量子化部225は、第2動き補正処理後の階層化データ510である階層化データ510aを量子化し、量子化した階層化データ510aを階層化データ501として出力する。   The motion correction unit 226 performs a second motion correction process on the hierarchical data 510 output from the wavelet transform unit 224. The quantization unit 225 quantizes the hierarchical data 510 a which is the hierarchical data 510 after the second motion correction processing, and outputs the quantized hierarchical data 510 a as hierarchical data 501.

なお動き補正部226の少なくとも一部は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてよい。また、動き補正部226の少なくとも一部は、コンピュータがプログラムを実行することによって実現される機能ブロックであってもよい。IoT端末2のその他の動作については上記と同様である。以後、現在の処理対象の階層化データ510を現階層化データ510と呼ぶことがある。   Note that at least a part of the motion correction unit 226 may be realized by a hardware circuit that does not require software to realize its function. In addition, at least a part of the motion correction unit 226 may be a functional block realized by a computer executing a program. The other operations of the IoT terminal 2 are the same as described above. Hereinafter, the current hierarchical data 510 to be processed may be referred to as current hierarchical data 510.

図42は動き補正部226の構成の一例を示す図である。図42に示されるように、動き補正部226は、補正部2260及びフレームバッファ2261を備える。補正部2260は、ウェーブレット変換部224から出力される階層化データ510をフレームバッファ2261に記憶する。補正部2260は、ウェーブレット変換部224から現階層化データ510を受け取ると、現階層化データ510と、フレームバッファ2261に記憶される、過去に生成された階層化データ510(過去階層化データ510と呼ぶことがある)とに基づいて、現階層化データ510に対して第2動き補正処理を行う。過去階層化データ510は、現階層化データ510よりもQフレーム前の階層化データ510である。   FIG. 42 is a diagram showing an example of the configuration of the motion correction unit 226. As shown in FIG. As shown in FIG. 42, the motion correction unit 226 includes a correction unit 2260 and a frame buffer 2261. The correction unit 2260 stores the layered data 510 output from the wavelet transform unit 224 in the frame buffer 2261. When the correction unit 2260 receives the current hierarchical data 510 from the wavelet transform unit 224, the correction unit 2260 stores the current hierarchical data 510 and the hierarchical data 510 (past hierarchical data 510) generated in the past and stored in the frame buffer 2261. The second motion correction process is performed on the current hierarchical data 510 on the basis of (sometimes called). The past hierarchical data 510 is hierarchical data 510 Q frames before the current hierarchical data 510.

第2動き補正処理では、第1動き補正処理とは異なり、現階層化データ510の各サブバンドXYmに対して個別に補正が行われる。以下に第2補正処理について詳細に説明する。   In the second motion correction process, unlike the first motion correction process, correction is individually performed on each sub-band XYm of the current hierarchical data 510. The second correction process will be described in detail below.

補正部2260は、階層化データ510の各サブバンドXYmについて、当該サブバンドXYm内での被写体全体を示す部分(被写体全体部分と呼ぶことがある)の動きベクトルを、現階層化データ510と過去階層化データ510とに基づいて求める。この動きベクトルは、上記と同様にして求めることができる。例えば、補正部2260は、あるサブバンドXYmについての動きベクトルを求める場合には、例えば、現階層化データ510のサブバンドXYmにおける、背景を示す部分の位置と、過去階層化データ510のサブバンドXYmにおける、背景を示す部分の位置とに基づいて動きベクトルを求めることができる。   The correction unit 2260 compares, with the current hierarchical data 510, the motion vector of the portion (sometimes referred to as the entire object portion) indicating the entire subject within the corresponding subband XYm for each subband XYm of the hierarchical data 510. It is determined based on the hierarchical data 510. This motion vector can be determined in the same manner as described above. For example, when the correction unit 2260 obtains a motion vector for a certain sub-band XYm, for example, the position of a portion indicating the background in the sub-band XYm of the current hierarchical data 510 and the sub-band of the past hierarchical data 510 A motion vector can be determined based on the position of the portion indicating the background in XYm.

補正部2260は、各サブバンドXYmについて動きベクトルを求めると、現階層化データの各サブバンドXYmを、それに応じた動きベクトルに基づいて補正する。補正部2260は、あるサブバンドXYmを補正する場合には、サブバンドXYmについて求められた動きベクトルの水平方向成分を、現階層化データ510のサブバンドXYmについての水平方向の補正量である水平補正量CXXYmとし、当該動きベクトルの垂直方向成分を、現階層化データ510のサブバンドXYmについての垂直方向の補正量である垂直補正量CYXYmとする。そして、補正部280は、現階層化データ510のサブバンドXYm内において、被写体全体部分を、水平方向に水平補正量CXXYmだけ移動し、垂直方向に垂直補正量CYXYmだけ移動して、サブバンドXYmを補正する。補正部2260はこの補正を各サブバンドXYについて行う。補正後の各サブバンドXYmから成る現階層化データ510が、第2動き補正処理後の現階層化データ510となる。サブバンドXYmについての水平補正量CXXYm及び垂直補正量CYXYmを(CXXYm,CYXYm)で表すと、補正部2260は、LL3サブバンド、LH3サブバンド、HL3サブバンド、HH3サブバンド、LH2サブバンド、HL2サブバンド、HH2サブバンド、LH1サブバンド、HL1サブバンド及びHHサブバンド1にそれぞれ対応する(CXLL3,CYLL3)、(CXLH3,CYLH3)、(CXHL3,CYHL3)、(CXHH3,CYHH3)、(CXLH2,CYLH2)、(CXHL2,CYHL2)、(CXHH2,CYHH2)、(CXLH1,CYLH1)、(CXHL1,CYHL1)及び(CXHH1,CYHH1)を生成する。 After obtaining the motion vector for each subband XYm, the correction unit 2260 corrects each subband XYm of the current hierarchical data based on the motion vector corresponding thereto. When correcting a certain sub-band XYm, the correction unit 2260 is a horizontal correction component of the horizontal direction component of the current hierarchical data 510 for the sub-band XYm of the motion vector determined for the sub-band XYm. The correction amount CX XYm is used, and the vertical component of the motion vector is set as a vertical correction amount CY XYm that is a correction amount in the vertical direction for the sub-band XYm of the current hierarchical data 510. Then, the correction unit 280 moves the entire object in the horizontal direction by the horizontal correction amount CX XYm in the sub-band XYm of the current hierarchical data 510 and moves the vertical object by the vertical correction amount CY XYm in the vertical direction. Correct band XYm. The correction unit 2260 performs this correction on each sub-band XY. The current hierarchical data 510 composed of each sub-band XYm after the correction becomes the current hierarchical data 510 after the second motion correction processing. When the horizontal correction amount CX XYm and the vertical correction amount CY XYm for the sub-band XYm are expressed by (CX XYm , CY XYm ), the correction unit 2260 can calculate the LL3 sub-band, the LH3 sub-band, the HL3 sub-band, the HH3 sub-band, and the LH2 Corresponding to the sub-band, HL2 sub-band, HH2 sub-band, LH1 sub-band, HL1 sub-band and HH sub-band 1 (CX LL3 , CY LL3 ), (CX LH3 , CY LH3 ), (CX HL3 , CY HL3 ) , (CX HH3, CY HH3) , (CX LH2, CY LH2), (CX HL2, CY HL2), (CX HH2, CY HH2), (CX LH1, CY LH1), (CX HL1, CY HL1) and ( Generate CX HH1 and CY HH1 ).

このように、IoT端末2が、階層化データ510に対して、カメラ20の位置の変化の影響を補正する処理を行う場合であっても、カメラ20の撮影範囲において、人などの移動する物体が存在する領域が小さいにもかかわらず、差分階層化データ502を構成する複数のコードブロックの大部分が差分CBとなる可能性を低減することができる。その結果、IoT端末2の送信データ量をより確実に低減することができる。   As described above, even when the IoT terminal 2 performs processing for correcting the influence of the change in the position of the camera 20 on the hierarchical data 510, an object such as a person moving in the imaging range of the camera 20 Even though the area in which exists is small, it is possible to reduce the possibility that most of the plurality of code blocks constituting the difference layered data 502 become the difference CB. As a result, the amount of transmission data of the IoT terminal 2 can be reduced more reliably.

<第3変形例>
上記の各例では、ゲートウェイ3は、画像データを含むビットストリーム529をクラウドサーバ5に送信していたが、ビットストリーム529をクラウドサーバ5に送信しなくてもよい。つまり、ゲートウェイ3は、メタデータである認識結果情報524だけをクラウドサーバ5に送信してもよい。この場合には、図43に示されるようにトランスコーダ34が不要となり、図44に示されるようにデータ処理部32の第2メモリ324及び第2処理部322が不要になる。
Third Modified Example
In each of the above examples, the gateway 3 transmits the bit stream 529 including the image data to the cloud server 5, but the bit stream 529 may not be transmitted to the cloud server 5. That is, the gateway 3 may transmit only the recognition result information 524 which is metadata to the cloud server 5. In this case, as shown in FIG. 43, the transcoder 34 becomes unnecessary, and as shown in FIG. 44, the second memory 324 and the second processing unit 322 of the data processing unit 32 become unnecessary.

このように、ゲートウェイ3が画像データをクラウドサーバ5に送信しないことによって、IoT端末2が生成した画像データがインターネットに流れる可能性を低減することができる。よって、例えば、IoT端末2で生成される画像データに写る人のプライバシーが侵害される可能性を低減することができる。   Thus, the possibility that the image data generated by the IoT terminal 2 may flow to the Internet can be reduced by the gateway 3 not transmitting the image data to the cloud server 5. Therefore, for example, the possibility that the privacy of the person appearing in the image data generated by the IoT terminal 2 is violated can be reduced.

<第4変形例>
上記の各例に係るIoT端末2は、符号化データ505をパケット化して送信していたが、符号化データ505をパケット化せずに送信してもよい。これにより、パケットヘッダの生成が不要になる。さらに、パケットヘッダに含められる、零長パケット情報、コードブロックの包含情報、零ビットプレーン情報、符号化パス数情報及びコードブロックの符号量情報のうち、ゲートウェイ3でのパケットヘッダの復号化に必要な零長パケット情報及びコードブロックの含有情報の生成が不要になる。符号化装置24のビットストリーム生成部243は、パケット化されてない符号化データ505と付加情報を含むビットストリーム506を生成する。この付加情報には、パケットヘッダの代りに、零ビットプレーン情報、符号化パス数情報及びコードブロックの符号量情報が符号化されずに含められる。
Fourth Modified Example
The IoT terminal 2 according to each of the above examples packetized the encoded data 505 and transmitted it, but may transmit the encoded data 505 without packetizing. This eliminates the need for packet header generation. Furthermore, of the zero-length packet information, the code block inclusion information, the zero bit plane information, the coding path number information, and the code amount information of the code block included in the packet header, it is necessary for decoding the packet header at the gateway 3. It becomes unnecessary to generate the zero-length packet information and the code block content information. The bitstream generation unit 243 of the encoding device 24 generates a bitstream 506 including encoded data 505 not packetized and additional information. In this additional information, zero bit plane information, encoding pass number information and code amount information of the code block are included without being encoded, instead of the packet header.

このように、本変形例に係るIoT端末2では、符号化データ505がパケット化されないことから、IoT端末2ではデータのパケット化が不要となる。これにより、IoT端末2の処理が簡素化される。よって、IoT端末2の消費電力を低減することができるとともに、IoT端末2から送信されるデータの送信遅延を低減することができる。   As described above, in the IoT terminal 2 according to the present modification, since the encoded data 505 is not packetized, packetization of data is unnecessary in the IoT terminal 2. This simplifies the processing of the IoT terminal 2. Therefore, the power consumption of the IoT terminal 2 can be reduced, and the transmission delay of data transmitted from the IoT terminal 2 can be reduced.

またIoT端末2では、パケットヘッダの生成が不要になることから、処理がさらに簡素化される。よって、IoT端末2の消費電力をさらに低減することができるとともに、IoT端末2から送信されるデータの送信遅延をさらに低減することができる。   In addition, in the IoT terminal 2, since the generation of the packet header is not necessary, the processing is further simplified. Therefore, the power consumption of the IoT terminal 2 can be further reduced, and the transmission delay of data transmitted from the IoT terminal 2 can be further reduced.

また、IoT端末2からのビットストリーム506を処理するゲートウェイ3では、復号化装置31のビットストリーム解析部310は、パケットヘッダを復号化する必要がない。よって、ゲートウェイ3の処理を簡素化できる。   Further, in the gateway 3 that processes the bit stream 506 from the IoT terminal 2, the bit stream analysis unit 310 of the decoding device 31 does not need to decode the packet header. Thus, the processing of the gateway 3 can be simplified.

<第5変形例>
ゲートウェイ3の画像認識部33が検出する検出対象物の種類によっては、画像認識部33は解像度が低い画像から検出対象物を検出することが可能である。
Fifth Modified Example
Depending on the type of detection object detected by the image recognition unit 33 of the gateway 3, the image recognition unit 33 can detect the detection object from an image with low resolution.

また、ゲートウェイ3が、IoT端末2から受け取る符号化データ505を使用して行う処理の種類によっては、解像度が高い画像を示す符号化データ505が必要とされる場合もあれば、符号化データ505が示す画像の解像度が低くてもよい場合がある。例えば、ゲートウェイ3が、符号化データ505に基づいて、クラウドサーバ5に対して解像度が高い動画をストリーミング送信する場合には、解像度が高い画像を示す符号化データ505が必要とされる。   In addition, depending on the type of processing performed by the gateway 3 using the encoded data 505 received from the IoT terminal 2, the encoded data 505 indicating an image with high resolution may be required. The resolution of the image shown by may be low. For example, when the gateway 3 streaming-transmits a high resolution moving image to the cloud server 5 based on the encoded data 505, the encoded data 505 indicating an image with high resolution is required.

そこで、本変形例に係る画像処理システム4は、IoT端末2で生成されるコードブロック中の係数の二進値を構成する複数のビットにおいて、ゲートウェイ3に送信するビットを調整することによって、符号化データ505が示す画像の解像度を調整することができる。以下に本変形例に係る画像処理システム4について詳細に説明する。以後、コードブロックに含まれる、画像の画素に対応する係数の二進値を構成するビットの数をL(Lは2以上の整数)で表す。   Therefore, the image processing system 4 according to the present modification is a code by adjusting the bits to be transmitted to the gateway 3 in a plurality of bits constituting the binary value of the coefficient in the code block generated by the IoT terminal 2 It is possible to adjust the resolution of the image represented by the conversion data 505. The image processing system 4 according to the present modification will be described in detail below. Hereinafter, the number of bits included in the code block and constituting the binary value of the coefficient corresponding to the pixel of the image is represented by L (L is an integer of 2 or more).

本変形例では、IoT端末2が有する符号化装置24の符号化部240は、決定部26が決定する送信対象データ503中のコードブロックの係数を構成するLビットを最上位(MSB)から見た場合に初めて1が現れるビット位置よりも1ビットだけ上位のビット位置を第1ビット位置する。また符号化部240は、第1ビット位置からMビット数(Mは1以上の整数)だけ下位のビット位置を第2ビット位置する。符号化部240は、Lビットのうち、最上位から第2ビット位置までのビットを対象ビットとし、それ以外のビットを対象外ビットとする。符号化部240は、Lビットのうちの対象ビットを圧縮符号化する。つまり、符号化部240は、対象ビットだけに対してビットプレーン符号化及びエントロピー符号化を行う。そして、符号化部240は、Lビットのうちの対象外ビットを切り捨てて圧縮符号化しない。これにより、送信対象データ503中の各係数については、それを構成するLビットのうちの圧縮符号化された対象ビットだけが、ゲートウェイ3に送信される。送信対象データ503に差分CBが含まれる場合には、当該差分CBの各差分WT係数について、それを構成するLビットのうちの圧縮符号化された対象ビットだけが、ゲートウェイ3に送信される。また、送信対象データ503に非差分CBが含まれる場合には、当該非差分CBの各量子化ウェーブレット係数について、それを構成するLビットのうちの圧縮符号化された対象ビットだけが、ゲートウェイ3に送信される。   In the present modification, the encoding unit 240 of the encoding device 24 included in the IoT terminal 2 looks at L bits constituting the coefficient of the code block in the transmission target data 503 determined by the determination unit 26 from the most significant (MSB) In this case, the bit position higher than the bit position where 1 appears for the first time is the first bit position. In addition, the encoding unit 240 positions the second bit position of the bit position lower than the first bit position by M bit numbers (M is an integer of 1 or more). The encoding unit 240 sets bits from the most significant bit to the second bit position in the L bits as target bits, and sets other bits as non-target bits. The encoding unit 240 compresses and encodes the target bit of the L bits. That is, the encoding unit 240 performs bit-plane encoding and entropy encoding only on the target bit. Then, the encoding unit 240 rounds out non-target bits of L bits and does not perform compression encoding. As a result, for each coefficient in the transmission target data 503, only the compression-coded target bit of the L bits constituting it is transmitted to the gateway 3. When the difference CB is included in the transmission target data 503, only the compression-coded object bit of L bits constituting the difference WT coefficient of the difference CB is transmitted to the gateway 3. In addition, when the non-differential CB is included in the transmission target data 503, only the compression-coded target bit of the L bits constituting the quantized wavelet coefficient of the non-differential CB is the gateway 3. Sent to

なお、Lビットの最上位のビットが“1”の場合、符号化部240は、その最上位よりも1ビットだけ上位の仮想的なビット位置を第1ビット位置として、対象ビットを決定する。また、第1ビット位置からMビット数だけ下位のビット位置が、Lビットの最下位(LSB)を超える場合には、第2ビット位置は当該最下位に設定される。   When the most significant bit of the L bit is “1”, the encoding unit 240 determines the target bit with the virtual bit position higher by one bit than the most significant bit as the first bit position. When the bit position lower than the first bit position by the number of M bits exceeds the least significant bit (LSB) of L bits, the second bit position is set to the least significant bit.

図45,46は、圧縮符号化される対象ビットの一例を示す図である。図45,46の例では、L=11、M=3とされている。図45に示される係数(差分WT係数あるいは量子化ウェーブレット係数)の二進値は“000 1101 0111”で構成されている。この場合、対象ビットは“000110”の6ビットとなり、対象外ビットは“10111”の5ビットとなる。符号化部240は、対象ビット“000110”だけを圧縮符号化する。また、図46に示される係数の二進値は“010 0011 0101”で構成されている。この場合、対象ビットは“0100”の4ビットとなり、対象外ビットは“0110101”の7ビットとなる。符号化部240は、対象ビット“0100”だけを圧縮符号化する。   45 and 46 are diagrams showing an example of target bits to be compression-coded. In the example of FIGS. 45 and 46, L = 11 and M = 3. The binary value of the coefficient (differential WT coefficient or quantized wavelet coefficient) shown in FIG. 45 is composed of “000 1101 0111”. In this case, the target bit is 6 bits of "000110", and the non-target bit is 5 bits of "10111". The encoding unit 240 compresses and encodes only the target bit “000110”. Further, the binary value of the coefficient shown in FIG. 46 is composed of "010 0011 0101". In this case, the target bit is 4 bits of “0100”, and the non-target bit is 7 bits of “0110101”. The encoding unit 240 compresses and encodes only the target bit “0100”.

圧縮符号化される対象ビットを決定するMの値は、例えばゲートウェイ3によって決定される。ゲートウェイ3は、符号化データ505を用いて行う処理に応じてMの値を決定する。よって、Mの値は、ゲートウェイ3が符号化データ505を用いて行う処理に応じた値となる。   The value of M that determines the target bit to be compressed and encoded is determined by, for example, the gateway 3. The gateway 3 determines the value of M according to the process performed using the coded data 505. Therefore, the value of M is a value according to the process performed by the gateway 3 using the encoded data 505.

例えば、ゲートウェイ3は、上述の図29に示されるように、符号化データ505を用いて画像認識処理を行う場合には、図45,46の例のようにMの値を例えば3に設定する。またゲートウェイ3は、解像度が高い画像を示す符号化データ505を用いて処理を行う場合には、Mの値を例えば5に設定する。ゲートウェイ3は、設定したMの値をIoT端末2に通知する。IoT端末2の符号化部240は、ゲートウェイ3から通知されるMの値に基づいて対象ビットを決定する。   For example, as shown in FIG. 29 described above, the gateway 3 sets the value of M to, for example, 3 as in the examples of FIGS. 45 and 46 when performing the image recognition process using the encoded data 505. . The gateway 3 sets the value of M to, for example, 5 when processing is performed using the encoded data 505 indicating an image with high resolution. The gateway 3 notifies the IoT terminal 2 of the set M value. The encoding unit 240 of the IoT terminal 2 determines the target bit based on the value of M notified from the gateway 3.

IoT端末2からビットストリーム506を受信したゲートウェイ3では、復号化装置31の復号化部311が、IoT端末2からの符号化データ505を伸張復号化して、送信対象データ503中の係数を復元する。そして復号化部311は、復元した係数を構成する対象ビットに対してビットを追加して、Lビットの係数を生成する。   In the gateway 3 having received the bit stream 506 from the IoT terminal 2, the decoding unit 311 of the decoding apparatus 31 decompresses and decodes the encoded data 505 from the IoT terminal 2 to restore the coefficients in the transmission target data 503. . Then, the decoding unit 311 adds bits to target bits that constitute the restored coefficient to generate an L-bit coefficient.

ここで、復元された係数を構成する対象ビットのビット数をN(1以上の整数)とする。復号化部311は、復元した係数を構成する対象ビットよりも下位のビットとして、(L−N)個の0を当該対象ビットに追加する。これにより、Lビットから成る係数が得られる。ゲートウェイ3は、Mの値と、IoT端末2から送信される零ビットプレーン情報とに基づいて、対象ビットのビット数Nを特定することができる。復号化部311で生成された、Lビットから成る係数は、逆量子化部314に入力される。   Here, it is assumed that the number of target bits constituting the restored coefficient is N (an integer of 1 or more). The decoding unit 311 adds (L−N) 0's to the target bit as bits lower than the target bit constituting the restored coefficient. This yields a coefficient consisting of L bits. The gateway 3 can specify the number N of target bits based on the value of M and the zero bit plane information transmitted from the IoT terminal 2. The coefficient composed of L bits generated by the decoding unit 311 is input to the inverse quantization unit 314.

図47,48は、復号化部311で生成される、Lビットから成る係数の一例を示す図である。図47には、IoT端末2が、上述の図45に示される対象ビット“000110”を送信する場合の例が示されている。図48には、IoT端末2が、上述の図46に示される対象ビット“0100”を送信する場合の例が示されている。   FIGS. 47 and 48 are diagrams showing an example of a coefficient composed of L bits, which is generated by the decoding unit 311. FIG. FIG. 47 shows an example in which the IoT terminal 2 transmits the target bit "000110" shown in FIG. 45 described above. FIG. 48 shows an example in which the IoT terminal 2 transmits the target bit "0100" shown in FIG. 46 described above.

図47に示されるように、復号化部311は、6ビットの対象ビット“000110”から成る係数を復元すると、対象ビット“000110”よりも下位のビットとして、5個の0を対象ビット“000110”に追加する。これにより、11ビット(Lビット)の“000 1100 0000”から成る係数が得られる。   As shown in FIG. 47, when the decoding unit 311 restores the coefficient made up of the target bits “000110” of 6 bits, five 0s are set as target bits “000110” as lower bits than the target bit “000110”. Add to As a result, a coefficient consisting of 11 bits (L bits) of "000 1100 0000" is obtained.

また図48に示されるように、復号化部311は、4ビットの対象ビット“0100”から成る係数を復元すると、対象ビット“0100”よりも下位のビットとして、7個の0を対象ビット“0100”に追加する。これにより、11ビット(Lビット)の“010 0000 0000”から成る係数が得られる。   Further, as shown in FIG. 48, when the decoding unit 311 restores the coefficient made up of the 4-bit target bit “0100”, seven 0s are set as target bits “0” as bits lower than the target bit “0100”. Add to "0100". As a result, a coefficient consisting of 11 bits (L bits) of "010 0000 0000" is obtained.

図45〜48の例では、図45,46と図47,48とをそれぞれ比較して理解できるように、復号化部311で生成される11ビットの係数が示す情報では、IoT端末2で生成される11ビットの係数が示す情報と比較して、下位のビットの情報が失われる可能性がある。したがって、逆量子化部314から出力される復号化データ521が示す画像の解像度は低くなる可能性がある。   In the example of FIGS. 45 to 48, the information indicated by the 11-bit coefficients generated by the decoding unit 311 is generated by the IoT terminal 2 so that FIGS. 45 and 46 and FIGS. 47 and 48 can be compared and understood, respectively. The information of lower bits may be lost compared to the information indicated by the 11-bit coefficient. Therefore, the resolution of the image indicated by the decoded data 521 output from the inverse quantization unit 314 may be low.

このように、本変形例では、送信対象データ503中の、画素に対応する係数(量子化差分WT係数あるいは量子化ウェーブレット係数)を構成するLビットのうち、最上位から、ゲートウェイ3での処理に応じたMの値で決まる第2ビット位置までのビットだけが、圧縮符号化されてゲートウェイ3に送信される。したがって、IoT端末2がゲートウェイ3に送信するデータ量を、ゲートウェイ3での処理に応じて調整することができる。よって、IoT端末2の消費電力を低減することができるとともに、IoT端末2から送信されるデータの送信遅延を低減することができる。   Thus, in the present modification, processing in gateway 3 from the highest order of L bits constituting coefficients (quantized difference WT coefficients or quantized wavelet coefficients) corresponding to pixels in transmission target data 503 Only the bits up to the second bit position determined by the value of M according to are compressed and transmitted to the gateway 3. Therefore, the amount of data that the IoT terminal 2 transmits to the gateway 3 can be adjusted according to the processing in the gateway 3. Therefore, the power consumption of the IoT terminal 2 can be reduced, and the transmission delay of data transmitted from the IoT terminal 2 can be reduced.

また、対象ビットを決定するMの値を調整することによって、ゲートウェイ3で使用される画像の解像度を簡単に調整することができる。つまり、Mの値を大きくすることによって、ゲートウェイ3で使用される画像の解像度を高くすることができ、Mの値を小さくすることによって、ゲートウェイ3で使用される画像の解像度を低くすることができる。   Also, by adjusting the value of M that determines the target bit, the resolution of the image used by the gateway 3 can be easily adjusted. That is, by increasing the value of M, the resolution of the image used by the gateway 3 can be increased, and by decreasing the value of M, the resolution of the image used by the gateway 3 can be decreased. it can.

なお、IoT端末2は、ゲートウェイ3からMの値が通知されない場合には、係数を構成するLビットのすべてを圧縮符号化してゲートウェイ3に送信してもよい。   In addition, when the value of M is not notified from the gateway 3, the IoT terminal 2 may compress and encode all of the L bits constituting the coefficient and transmit it to the gateway 3.

またゲートウェイ3は、係数を構成するLビットにおいて、対象ビットとして過去に受信して第1メモリ323に記憶している上位のビットが存在する場合に、解像度が高い画像を用いた処理を行いたいときには、第1メモリ323に記憶されている当該上位のビットよりも下位の必要なビットだけをIoT端末2に送信させてもよい。この場合には、ゲートウェイ3は、第1メモリ323内の上位のビットに対して、後から受信した下位のビットを追加することによって、情報損失が少ないLビットの係数を生成することができる。よって、ゲートウェイ3は、解像度が高い画像を用いた処理が可能となる。また、IoT端末2は、すでに送信したデータを再度送信することがないことから、IoT端末2の処理が簡素化する。   The gateway 3 also wants to perform processing using an image with high resolution when there is an upper bit received as an object bit in the past and stored in the first memory 323 in L bits constituting a coefficient. At this time, only the necessary bits lower than the upper bits stored in the first memory 323 may be transmitted to the IoT terminal 2. In this case, the gateway 3 can generate an L-bit coefficient with less information loss by adding the lower bits received later to the upper bits in the first memory 323. Therefore, the gateway 3 can perform processing using an image with high resolution. In addition, since the IoT terminal 2 does not transmit the already transmitted data again, the processing of the IoT terminal 2 is simplified.

例えば、ゲートウェイ3が、解像度が高い画像を用いた処理を行うために、IoT端末2が生成する係数を構成するLビットのすべてが必要であるとする。また、ゲートウェイ3は、係数を構成するLビットのうち、例えば図44に示される上位6ビット“000110”を対象ビットとしてすでに受信して第1メモリ323に記憶しているとする。このような場合、ゲートウェイ3は、必要な残りの下位5ビット、つまり“10111”だけを送信するようにIoT端末2に指示する。この指示を受けたIoT端末2は、下位の5ビット“10111”だけを圧縮復号化してゲートウェイ3に送信する。ゲートウェイ3は、第1メモリ323内の上位の“000110”に対して、新たに受信した下位の“10111”を追加して、11ビットの“000 1101 0111”から成る係数を生成する。   For example, it is assumed that all the L bits constituting the coefficients generated by the IoT terminal 2 are required in order for the gateway 3 to perform processing using an image with high resolution. Also, it is assumed that the gateway 3 has already received the upper 6 bits "000110" shown in FIG. 44, for example, as the target bits among the L bits constituting the coefficient, and has stored them in the first memory 323. In such a case, the gateway 3 instructs the IoT terminal 2 to transmit only the necessary remaining lower 5 bits, ie, "10111". The IoT terminal 2 receiving this instruction compresses / decodes only the lower 5 bits “10111” and transmits it to the gateway 3. The gateway 3 adds the newly received lower “10111” to the upper “000110” in the first memory 323 to generate a coefficient consisting of 11 bits “000 1101 0111”.

また、ゲートウェイ3が、解像度が高い画像を用いた処理を行うために、IoT端末2が生成する係数を構成するLビットのうちの上位9ビットが必要であるとする。また、ゲートウェイ3は、量子化ウェーブレット係数を構成するLビットのうち、例えば図45に示される上位4ビット“0100”を対象ビットとしてすでに受信して第1メモリ323に記憶しているとする。このような場合、ゲートウェイ3は、必要な残りの5ビット“01101”(第2ビット位置の次のビット位置から5ビット分)だけを送信するようにIoT端末2に指示する。この指示を受けたIoT端末2は、5ビット“01101”だけを圧縮復号化してゲートウェイ3に送信する。ゲートウェイ3は、第1メモリ323内の上位の“0100”に対して、新たに受信した5ビット“01101”を下位に追加し、さらに2個の0を追加して、11ビットの“010 0011 0100”から成る係数を生成する。   Further, in order for the gateway 3 to perform processing using an image with a high resolution, it is assumed that the upper 9 bits of L bits constituting the coefficient generated by the IoT terminal 2 are required. Also, it is assumed that the gateway 3 has already received the upper 4 bits “0100” shown in FIG. 45, for example, as the target bits among the L bits constituting the quantized wavelet coefficient and stored in the first memory 323. In such a case, the gateway 3 instructs the IoT terminal 2 to transmit only the necessary remaining 5 bits “01101” (5 bits from the bit position next to the second bit position). The IoT terminal 2 receiving this instruction compresses / decodes only 5 bits “01101” and transmits it to the gateway 3. The gateway 3 adds the newly received 5-bit “01101” to the low-order “0100” in the first memory 323 to the low order, and adds two 0's to the 11-bit “010 0011”. Generate a coefficient consisting of 0100 ′ ′.

<第6変形例>
本変形例では、IoT端末2は、ビットストリーム506をマルチレイヤー化することが可能である。図49は、本変形例に係るIoT端末2の符号化装置24の構成の一例を示す図である。図50は、本変形例に係るゲートウェイ3の復号化装置31の構成の一例を示す図である。
<Sixth Modified Example>
In this modification, the IoT terminal 2 can multilayer the bit stream 506. FIG. 49 is a diagram showing an example of a configuration of the encoding device 24 of the IoT terminal 2 according to the present modification. FIG. 50 is a diagram showing an example of a configuration of the decryption device 31 of the gateway 3 according to the present modification.

図49に示されるように、本変形例に係る符号化装置24は、上述の図20に示される符号化装置24において、レイヤー分割処理部250をさらに備えるものである。レイヤー分割処理部250は、ビットストリーム生成部243から出力されるビットストリーム506をマルチレイヤー化することが可能である。ビットストリーム506では、コードブロック単位でデータが並べられている。レイヤー分割処理部250は、ビットストリーム506をマルチレイヤー化する場合には、ビットストリーム506に含まれる符号化データ505を複数のレイヤーに分割し、当該複数のレイヤーの少なくとも一つのレイヤーのデータを含むビットストリーム506aを出力する。一方で、レイヤー分割処理部250は、ビットストリーム506をマルチレイヤー化せずにそのまま出力することも可能である。この場合には、レイヤー分割処理部250は、ビットストリーム506をそのままビットストリーム506aとして出力する。レイヤー分割処理部250で生成されたビットストリーム506aは、送信部25aからゲートウェイ3に送信される。   As shown in FIG. 49, the encoding device 24 according to the present modification further includes a layer division processing unit 250 in the encoding device 24 shown in FIG. 20 described above. The layer division processing unit 250 can multi-layer the bit stream 506 output from the bit stream generation unit 243. In the bit stream 506, data is arranged in code block units. When the bit stream 506 is multilayered, the layer division processing unit 250 divides the encoded data 505 included in the bit stream 506 into a plurality of layers, and includes data of at least one layer of the plurality of layers. The bitstream 506a is output. On the other hand, the layer division processing unit 250 can also output the bit stream 506 as it is without multi-layering. In this case, the layer division processing unit 250 outputs the bit stream 506 as it is as a bit stream 506a. The bit stream 506 a generated by the layer division processing unit 250 is transmitted from the transmission unit 25 a to the gateway 3.

なお、レイヤー分割処理部250の少なくとも一部は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてよい。また、レイヤー分割処理部250の少なくとも一部は、コンピュータがプログラムを実行することによって実現される機能ブロックであってもよい。   Note that at least a part of the layer division processing unit 250 may be realized by a hardware circuit that does not require software to realize its function. Further, at least a part of the layer division processing unit 250 may be a functional block realized by execution of a program by a computer.

図50に示されるように、本変形例に係る復号化装置31は、上述の図23に示される復号化装置31において、レイヤー合成処理部315をさらに備えるものである。レイヤー合成処理部315は、ゲートウェイ3がIoT端末2から、複数のレイヤーのデータを含むビットストリーム506aを受信する場合には、当該ビットストリーム506aに含まれる、同一サブバンドについての複数のレイヤーのデータを合成して、マルチレイヤー化されてないビットストリーム506b、つまりコードブロック単位でデータが並べられたビットストリーム506bを生成して出力する。一方で、レイヤー合成処理部315は、ゲートウェイ3がIoT端末2からマルチレイヤー化されていないビットストリーム506a(ビットストリーム506)を受信する場合と、一つのレイヤーのデータだけを含むビットストリーム506aを受信する場合には、当該ビットストリーム506aをそのままビットストリーム506bとして出力する。   As shown in FIG. 50, the decoding device 31 according to the present modification further includes a layer combining processing unit 315 in the decoding device 31 shown in FIG. 23 described above. When the gateway 3 receives a bit stream 506a including data of a plurality of layers from the IoT terminal 2, the layer composition processing unit 315 generates data of a plurality of layers of the same subband included in the bit stream 506a. To generate and output a non-multilayer bit stream 506b, that is, a bit stream 506b in which data is arranged in code block units. On the other hand, when the gateway 3 receives a bitstream 506a (bitstream 506) that is not multi-layered from the IoT terminal 2, the layer composition processing unit 315 receives a bitstream 506a including data of only one layer. In this case, the bit stream 506a is output as it is as a bit stream 506b.

ビットストリーム解析部310は、上記と同様にして、ビットストリーム506bを解析して、当該ビットストリーム506bから、符号化データ505aと付加情報とを抽出する。符号化データ505aは、符号化データ505と同様に、フレーム画像の少なくとも一部あるいは差分画像の少なくとも一部を示す、階層符号化されたデータである。ビットストリーム解析部310は、抽出した符号化データ505aを復号化部311及びデータ処理部32に出力する。復号化部311及びデータ処理部32のそれぞれは、符号化データ505に対する処理と同様にして、符号化データ505aを処理する。なお、ゲートウェイ3がIoT端末2からマルチレイヤー化されていないビットストリーム506a(ビットストリーム506)を受信する場合には、符号化データ505aは、IoT端末2で生成される符号化データ505と一致する。   In the same manner as described above, the bit stream analysis unit 310 analyzes the bit stream 506b and extracts the encoded data 505a and the additional information from the bit stream 506b. The encoded data 505 a is hierarchically encoded data indicating at least a part of a frame image or at least a part of a difference image, as with the encoded data 505. The bit stream analysis unit 310 outputs the extracted encoded data 505 a to the decoding unit 311 and the data processing unit 32. Each of the decoding unit 311 and the data processing unit 32 processes the encoded data 505 a in the same manner as the processing for the encoded data 505. When the gateway 3 receives a bitstream 506 a (bit stream 506) that is not multi-layered from the IoT terminal 2, the encoded data 505 a matches the encoded data 505 generated by the IoT terminal 2. .

<レイヤー分割処理部の詳細説明>
図51はレイヤー分割処理部250の構成の一例を示す図である。図51に示されるように、レイヤー分割処理部250は、メモリ251と、レイヤー分割制御部252と、多重化部253と、優先度テーブル254とを備える。
<Detailed Description of Layer Division Processing Unit>
FIG. 51 is a diagram showing an example of the configuration of the layer division processing unit 250. As shown in FIG. As shown in FIG. 51, the layer division processing unit 250 includes a memory 251, a layer division control unit 252, a multiplexing unit 253, and a priority table 254.

優先度テーブル254 は、ウェーブレット平面を構成する複数のサブバンドのそれぞれに対して設定された優先度を記憶している。各サブバンドの優先度は、当該サブバンドの分解レベルに応じて設定されている。レイヤー分割処理部250では、優先度テーブル255内の優先度に基づいて、ビットストリーム506がマルチレイヤー化される。   The priority table 254 stores the priorities set for each of the plurality of sub-bands constituting the wavelet plane. The priority of each subband is set according to the decomposition level of that subband. In the layer division processing unit 250, the bit stream 506 is multilayered based on the priorities in the priority table 255.

レイヤー分割制御部252は、ビットストリーム生成部243で生成されるビットストリーム506をメモリ251に記憶する。レイヤー分割制御部252は、ビットストリーム506をマルチレイヤー化する場合には、メモリ251から、ビットストリーム506に含まれる符号化データ505を読み出し、読み出した符号化データ505を複数のレイヤーに分割する。そして、レイヤー分割制御部252は、複数のレイヤーのうちの少なくとも一つのレイヤーのデータを多重化部253に出力する。多重化部523は、レイヤー分割制御部252が出力するデータを多重化して、少なくとも一つのレイヤーのデータを含むビットストリーム506aを生成して出力する。   The layer division control unit 252 stores the bit stream 506 generated by the bit stream generation unit 243 in the memory 251. When the bit stream 506 is multilayered, the layer division control unit 252 reads the encoded data 505 included in the bit stream 506 from the memory 251, and divides the read encoded data 505 into a plurality of layers. Then, the layer division control unit 252 outputs data of at least one layer of the plurality of layers to the multiplexing unit 253. The multiplexing unit 523 multiplexes the data output from the layer division control unit 252, and generates and outputs a bit stream 506a including data of at least one layer.

一方で、レイヤー分割制御部252は、ビットストリーム506をマルチレイヤー化しない場合には、メモリ251からビットストリーム506を読み出してそのまま多重化部253に出力する。多重化部253は、入力されたビットストリーム506をそのままビットストリーム506aとして出力する。IoT端末2がビットストリーム506をマルチレイヤー化するか否かについては、ゲートウェイ3からの指示情報520によって指定される。   On the other hand, when the bit stream 506 is not multilayered, the layer division control unit 252 reads the bit stream 506 from the memory 251 and outputs the bit stream 506 to the multiplexing unit 253 as it is. The multiplexing unit 253 outputs the input bit stream 506 as it is as a bit stream 506a. Whether or not the IoT terminal 2 multilayers the bit stream 506 is specified by the instruction information 520 from the gateway 3.

図52は各サブバンドに設定された優先度の一例を示す図である。図52の例では、LL3サブバンドに対して優先度4が設定され、LH3サブバンド及びHL3サブバンドに対して優先度3が設定されている。また、HH3サブバンド、LH2サブバンド及びHL2サブバンドに対して優先度2が設定され、HH2サブバンド、LH1サブバンド及びHL1サブバンドに対して優先度1が設定されている。そして、HH1サブバンドに対して優先度0が設定されている。なお、各サブバンドの優先度の値は図52の例には限られない。   FIG. 52 is a diagram showing an example of the priority set to each subband. In the example of FIG. 52, priority 4 is set for the LL3 subband and priority 3 is set for the LH3 subband and the HL3 subband. Also, priority 2 is set for the HH3 subband, the LH2 subband, and the HL2 subband, and priority 1 is set for the HH2 subband, the LH1 subband, and the HL1 subband. Then, priority 0 is set for the HH1 subband. The value of priority of each subband is not limited to the example of FIG.

レイヤー分割制御部252は、ビットストリーム506をマルチレイヤー化する場合には、符号化データ505に含まれる各コードブロックに対してビットシフト処理を行う。以下にビットシフト処理について詳細に説明する。本変形例では、説明対象のコードブロックを対象コードブロックと呼ぶ。   The layer division control unit 252 performs bit shift processing on each code block included in the encoded data 505 when the bit stream 506 is multi-layered. The bit shift processing will be described in detail below. In this modification, the code block to be described is referred to as a target code block.

レイヤー分割処理部252は、対象コードブロックに対するビットシフト処理において、まず、対象コードブロックが属するサブバンドに設定された優先度を優先度テーブル254から取得する。レイヤー分割制御部252は、対象コードブロックの各係数について、当該係数を構成するLビットのデータを、取得した優先度と同じ数のビット数だけビットシフトする。これにより、対象コードブロックに対してビットシフト処理が行われる。   In the bit shift process for the target code block, the layer division processing unit 252 first acquires, from the priority table 254, the priority set to the sub-band to which the target code block belongs. The layer division control unit 252 shifts, for each coefficient of the target code block, bit data of L bits constituting the coefficient by the same number of bits as the acquired priority. Thereby, bit shift processing is performed on the target code block.

対象コードブロックが、例えばLL3サブバンドに属する場合には、レイヤー分割制御部252は、対象コードブロックの各係数について、当該係数を構成するLビットのデータを4ビットだけ同じ方向にビットシフトする。また、対象コードブロックが、例えばHH3サブバンドに属する場合には、レイヤー分割制御部252は、対象コードブロックの各係数について、当該係数を構成するLビットのデータを2ビットだけ同じ方向にビットシフトする。なお、HH1サブバンドに設定されている優先度は0であるため、HH1サブバンドに属する対象コードブロックに対してビットシフト処理が行われたとしても、対象コードブロックの各係数は実際にはビットシフトされない。以後、ビットシフト処理が行われたコードブロックをシフト処理済みコードブロックと呼ぶことがある。   In the case where the target code block belongs to, for example, the LL3 sub-band, the layer division control unit 252 bit-shifts L bit data constituting the coefficient in the same direction by 4 bits for each coefficient of the target code block. In addition, when the target code block belongs to, for example, the HH3 sub-band, the layer division control unit 252 bit-shifts L-bit data constituting the coefficient in the same direction by 2 bits for each coefficient of the target code block. Do. Note that since the priority set to the HH1 subband is 0, even if the bit shift process is performed on the target code block belonging to the HH1 subband, each coefficient of the target code block is actually a bit It is not shifted. Hereinafter, a code block subjected to bit shift processing may be referred to as a shifted code block.

レイヤー分割制御部252は、符号化データ505に含まれる各コードブロックに対してビットシフト処理を行うと、各シフト処理済みコードブロックを複数のレイヤーに分割するレイヤー分割処理を行う。   When the layer division control unit 252 performs bit shift processing on each code block included in the encoded data 505, the layer division control unit 252 performs layer division processing for dividing each shift-processed code block into a plurality of layers.

図53は、レイヤー分割処理の一例を説明するための図である。図53には、シフト処理済みコードブロックの係数(ビットシフトされた係数)を構成するLビット(図53の例では11ビット)のデータ5700が示されている。Lビットのデータ5700に示される0〜10の番号は、当該データ570内での各ビットのビット位置を示している。0番はLSBを示し、10番はMSBを示している。   FIG. 53 is a diagram for describing an example of layer division processing. FIG. 53 shows L-bit (11 bits in the example of FIG. 53) data 5700 constituting the coefficients (bit-shifted coefficients) of the shifted code block. The numbers 0 to 10 shown in the L-bit data 5700 indicate the bit position of each bit in the data 570. The number 0 indicates the LSB, and the number 10 indicates the MSB.

図53に示されるように、LL3サブバンドに属するコードブロックの係数を構成するLビットのデータ5700は4ビットだけビットシフトされている。LH3サブバンド及びHL3サブバンドに属するコードブロックの係数を構成するLビットのデータ5700は3ビットだけビットシフトされている。HH3サブバンド、LH2サブバンド及びHL2サブバンドに属するコードブロックの係数を構成するLビットのデータ5700は2ビットだけビットシフトされている。HH2サブバンド、LH1サブバンド及びHL1サブバンドに属するコードブロックの係数を構成するLビットのデータ5700は1ビットだけビットシフトされている。そして、HH1サブバンドに属するコードブロックの係数を構成するLビットのデータ5700はビットシフトされていない。   As shown in FIG. 53, L-bit data 5700 constituting the coefficients of code blocks belonging to the LL3 subband are bit shifted by 4 bits. The L-bit data 5700 constituting the coefficients of code blocks belonging to the LH3 subband and the HL3 subband are bit shifted by 3 bits. The L-bit data 5700 constituting the coefficients of code blocks belonging to the HH3 subband, the LH2 subband, and the HL2 subband are bit shifted by 2 bits. The L-bit data 5700 constituting the coefficients of the code blocks belonging to the HH2 subband, the LH1 subband, and the HL1 subband are bit shifted by one bit. Then, L-bit data 5700 constituting the coefficient of the code block belonging to the HH1 subband is not bit shifted.

本変形例では、シフト処理済みコードブロックに関して、図53の下側に示されるように、HH1サブバンドの係数を構成するLビットのデータ5700の最下位のビット位置から、LL3サブバンドのビットシフトされた係数を構成するLビットのデータ5700の最上位のビット位置までに対して、0〜14までの番号がそれぞれ割り当てられている。   In this modification, as shown on the lower side of FIG. 53, with respect to the shifted code block, bit shift of LL3 subband from the least significant bit position of L bit data 5700 constituting the coefficient of HH1 subband. The numbers 0 to 14 are respectively assigned to the most significant bit positions of the L-bit data 5700 constituting the coefficients.

レイヤー分割制御部252は、ビットシフト処理後のコードブロックの係数を構成するLビットのデータ5700のうち、ビット位置が12番から14番までのビットをレイヤー0とし、ビット位置が9番から11番までのビットをレイヤー1とする。またレイヤー分割制御部252は、ビットシフト処理後のコードブロックの係数を構成するLビットのデータ5700のうち、ビット位置が6番から8番までのビットをレイヤー2とし、ビット位置が3番から5番までのビットをレイヤー3とする。そして、レイヤー分割制御部252は、ビットシフト処理後のコードブロックの係数を構成するLビットのデータ5700のうち、ビット位置が0番から2番までのビットをレイヤー4とする。   The layer division control unit 252 sets the bit positions 12 to 14 of the L bit data 5700 constituting the coefficient of the code block after bit shift processing to be layer 0, and the bit positions 9 to 11 Let the bits up to the number be layer 1. Further, the layer division control unit 252 sets the bit positions 6 to 8 of the L bit data 5700 constituting the coefficient of the code block after bit shift processing as layer 2 and the bit positions 3 to Let the bits up to the fifth be layer 3. Then, the layer division control unit 252 sets the bit from the 0th to the 2nd bit position to the layer 4 in the L-bit data 5700 constituting the coefficient of the code block after the bit shift processing.

以上のようにして、符号化データ505が複数のレイヤーに分割されると、レイヤー分割制御部252は、複数のレイヤーのうち、ゲートウェイ3に送信するレイヤーのデータを多重化部253に出力する。IoT端末2がゲートウェイ3に送信するレイヤーについては、ゲートウェイ3からの指示情報520によって指定される。ゲートウェイ3は、複数のレイヤーのうち、どのレイヤーのデータを送信すべきかIoT端末2に対して自由に指示することができる。多重化部253は、レイヤー分割制御部252からのデータを多重化して、ゲートウェイ3に送信するレイヤーのデータを含むビットストリーム506aを生成する。なお、Lビットのデータ5700を複数のレイヤーに分割する方法は図53の例には限られない。   As described above, when the encoded data 505 is divided into a plurality of layers, the layer division control unit 252 outputs the data of the layer to be transmitted to the gateway 3 among the plurality of layers to the multiplexing unit 253. The layer that the IoT terminal 2 transmits to the gateway 3 is designated by the instruction information 520 from the gateway 3. The gateway 3 can freely instruct the IoT terminal 2 as to which layer data should be transmitted among the plurality of layers. The multiplexing unit 253 multiplexes the data from the layer division control unit 252 to generate a bit stream 506 a including data of a layer to be transmitted to the gateway 3. Note that the method of dividing the L-bit data 5700 into a plurality of layers is not limited to the example shown in FIG.

<レイヤー合成処理部の詳細説明>
図54はレイヤー合成処理部315の構成の一例を示す図である。図54に示されるように、レイヤー合成処理部315は、メモリ316及びレイヤー合成制御部317を備える。
<Detailed Description of Layer Composition Processing Unit>
FIG. 54 is a diagram showing an example of the configuration of the layer combining processing unit 315. As shown in FIG. As shown in FIG. 54, the layer composition processing unit 315 includes a memory 316 and a layer composition control unit 317.

レイヤー合成制御部317は、IoT端末2からのビットストリーム506aをメモリ316に記憶する。また、レイヤー合成制御部317は、ゲートウェイ3が受信したビットストリーム506aがマルチレイヤー化されてない場合には、当該ビットストリーム506aをそのままビットストリーム506bとして出力する。また、レイヤー合成制御部317は、ゲートウェイ3が受信したビットストリーム506aがマルチレイヤー化されている場合であって、当該ビットストリーム506aに一つのレイヤーのデータしか含まれていない場には、当該ビットストリーム506aをそのままビットストリーム506bとして出力する。   The layer composition control unit 317 stores the bit stream 506 a from the IoT terminal 2 in the memory 316. Further, when the bit stream 506a received by the gateway 3 is not multilayered, the layer combining control unit 317 outputs the bit stream 506a as it is as the bit stream 506b. The layer combining control unit 317 is a bit when the bit stream 506a received by the gateway 3 is multi-layered and the bit stream 506a includes only data of one layer, the bit The stream 506a is output as it is as a bit stream 506b.

一方で、レイヤー合成制御部317は、ゲートウェイ3が受信したビットストリーム506aがマルチレイヤー化されている場合であって、当該ビットストリーム506aに複数のレイヤーのデータが含まれている場合には、同じサブバンドについての複数のレイヤーのデータを合成して、マルチレイヤー化されてないビットストリーム506b(ビットストリーム506のように、コードブロック単位でデータが並べられたビットストリーム506b)を生成して出力する。   On the other hand, in the case where the bit stream 506a received by the gateway 3 is multi-layered and the bit stream 506a includes data of a plurality of layers, the layer composition control unit 317 is the same. Synthesize multiple layers of data for subbands, and generate and output a non-multilayer bit stream 506 b (a bit stream 506 b in which data is arranged in code block units like bit stream 506) .

<本変形例に係る画像処理システムの動作例>
次に、ビットストリーム506がマルチレイヤー化される場合の本変形例に係る画像処理システム4全体での動作例について説明する。ここでは、特に断らない限り、コードブロックと言えば、量子化差分ウェーブレット平面のコードブロックを意味する。
<Operation Example of Image Processing System According to this Modification>
Next, an operation example of the entire image processing system 4 according to the present modification when the bit stream 506 is multilayered will be described. Here, unless otherwise specified, speaking of a code block means a code block of a quantized difference wavelet plane.

ゲートウェイ3は、対象フレーム画像に対する処理が開始すると、例えば、量子化差分ウェーブレット平面のLL3サブバンドの各コードブロックのレイヤー0のデータを指定データとして指示情報520を送信する。この指示情報520を受け取ったIoT端末2は、LL3サブバンドの各コードブロックを送信対象データ503として符号化データ504を生成する。そして、IoT端末2では、レイヤー分割処理部250が、符号化データ505を含むビットストリーム506をマルチレイヤー化して、LL3サブバンドの各コードブロックのレイヤー0のデータを生成する。そして、レイヤー分割処理部250は、LL3サブバンドの各コードブロックのレイヤー0のデータを含むビットストリーム506aを生成してゲートウェイ3に送信する。   When processing on the target frame image starts, the gateway 3 transmits instruction information 520, for example, as data of layer 0 of each code block of the LL3 subband of the quantized difference wavelet plane as specification data. The IoT terminal 2 having received the instruction information 520 generates coded data 504 by using each code block of the LL3 sub-band as the transmission target data 503. Then, in the IoT terminal 2, the layer division processing unit 250 multi-layers the bit stream 506 including the encoded data 505 to generate layer 0 data of each code block of the LL3 sub-band. Then, the layer division processing unit 250 generates a bit stream 506 a including data of layer 0 of each code block of the LL 3 subband and transmits the bit stream 506 a to the gateway 3.

ゲートウェイ3では、レイヤー合成処理部315は、IoT端末2から受け取ったビットストリーム506aをそのままビットストリーム506bとして出力する。その後、ゲートウェイ3は、ビットストリーム506bに含まれる、LL3サブバンドの各係数のデータ(レイヤー0)が、Lビット(L=11)のデータとなるように、当該各係数のデータに対して、8個の0を下位ビットとして追加する(上述の図47,48参照)。これにより、各コードブロックの係数がLビットのデータで構成されたLL3サブバンドが得られる。ゲートウェイ3は、得られたLL3サブバンドの各コードブロックから、それに対応する非差分CBを復元し、復元した非差分CBを認識用データ522とする。ゲートウェイ3は認識用データ522に対して画像認識処理を行う。   In the gateway 3, the layer combining processing unit 315 outputs the bit stream 506a received from the IoT terminal 2 as it is as the bit stream 506b. After that, the gateway 3 applies data to each coefficient data so that the data (layer 0) of each coefficient of the LL3 sub-band contained in the bit stream 506b becomes L-bit (L = 11) data. Eight zeros are added as lower bits (see FIGS. 47 and 48 above). As a result, LL3 subbands in which the coefficients of each code block are configured by L-bit data are obtained. The gateway 3 restores the corresponding non-differential CB from each code block of the obtained LL3 sub-band, and uses the restored non-differential CB as recognition data 522. The gateway 3 performs image recognition processing on the recognition data 522.

ゲートウェイ3が検出対象物を検出すると、対象フレーム画像に対する処理が終了する。一方で、ゲートウェイ3は、検出対象物を検出しない場合には、LL2サブバンドを処理対象とするために、LH3サブバンド、HL3サブバンド及びHH3サブバンドの各コードブロックのレイヤー0及び1のデータと、LL3サブバンドの各コードブロックのレイヤー1のデータとを指定データとして指示情報520を送信する。この指示情報520を受け取ったIoT端末2は、LL3サブバンド、LH3サブバンド、HL3サブバンド及びHH3サブバンドの各コードブロックを送信対象コードブロックとして符号化データ505を生成する。そして、IoT端末2では、レイヤー分割処理部250が、符号化データ505を含むビットストリーム506をマルチレイヤー化して、LH3サブバンド、HL3サブバンド及びHH3サブバンドの各コードブロックのレイヤー0及び1のデータと、LL3サブバンドの各コードブロックのレイヤー1のデータとを生成する。そして、レイヤー分割処理部250は、LH3サブバンド、HL3サブバンド及びHH3サブバンドの各コードブロックのレイヤー0及び1のデータと、LL3サブバンドの各コードブロックのレイヤー1のデータとを含むビットストリーム506aを生成してゲートウェイ3に送信する。IoT端末2は、マルチレイヤー化されたビットストリーム506aを送信する場合には、上位のレイヤーのデータから順に送信する。ここでは、IoT端末2は、LH3サブバンド、HL3サブバンド及びHH3サブバンドのレイヤー0のデータを送信した後に、LL3サブバンド、LH3サブバンド、HL3サブバンド及びHH3サブバンドのレイヤー1のデータを送信する。   When the gateway 3 detects a detection target, the processing on the target frame image ends. On the other hand, when the gateway 3 does not detect the detection target, data of layers 0 and 1 of each code block of the LH3 subband, the HL3 subband, and the HH3 subband is used to process the LL2 subband. And the layer 1 data of each code block of the LL3 subband as designation data, and transmits the instruction information 520. The IoT terminal 2 having received the instruction information 520 generates the coded data 505 by using the code blocks of the LL3 subband, the LH3 subband, the HL3 subband, and the HH3 subband as a transmission target code block. Then, in the IoT terminal 2, the layer division processing unit 250 multilayers the bit stream 506 including the encoded data 505, and sets layers 0 and 1 of each code block of the LH3 subband, the HL3 subband, and the HH3 subband. Data and data of Layer 1 of each code block of LL3 subband are generated. Then, the layer division processing unit 250 is a bit stream including data of layers 0 and 1 of each code block of LH3 subband, HL3 subband and HH3 subband, and data of layer 1 of each code block of LL3 subband. It generates 506 a and sends it to the gateway 3. When transmitting the multi-layered bit stream 506a, the IoT terminal 2 sequentially transmits data of the upper layer in order. Here, the IoT terminal 2 transmits layer 0 data of LH3 subband, HL3 subband and HH3 subband, and then transmits layer 1 data of LL3 subband, LH3 subband, HL3 subband and HH3 subband. Send.

ゲートウェイ3では、レイヤー合成処理部315のレイヤー合成制御部317は、IoT端末2から受け取ったビットストリーム506aをメモリ316に記憶する。そして、レイヤー合成制御部317は、メモリ316から、同一サブバンドの複数のレイヤーのデータを読み出して合成して、シングルレイヤー化されたビットストリーム506bを生成する。   In the gateway 3, the layer composition control unit 317 of the layer composition processing unit 315 stores the bit stream 506 a received from the IoT terminal 2 in the memory 316. Then, the layer combining control unit 317 reads out data of a plurality of layers of the same sub-band from the memory 316 and combines them to generate a single-layer bit stream 506b.

具体的には、レイヤー合成制御部317は、メモリ316から、LH3サブバンドのレイヤー0及び1のデータを読み出す。そして、レイヤー合成制御部317は、読み出した、LH3サブバンドのレイヤー0及び1のデータを合成して、コードブロック単位でデータが並ぶ、LH3サブバンドにおける、IoT端末2が送信したデータを生成する。以後、このデータを、シングルレイヤー化されたLH3サブバンドのデータと呼ぶ。   Specifically, the layer composition control unit 317 reads the data of layers 0 and 1 of the LH3 sub-band from the memory 316. Then, the layer combining control unit 317 combines the read data of layers 0 and 1 of the LH3 subband, and generates data transmitted by the IoT terminal 2 in the LH3 subband in which the data are arranged in code block units. . Hereinafter, this data is referred to as single-layered LH3 subband data.

同様に、レイヤー合成制御部317は、メモリ316から、HL3サブバンドのレイヤー0及び1のデータを読み出す。そして、レイヤー合成制御部317は、読み出した、HL3サブバンドのレイヤー0及び1のデータを合成して、コードブロック単位でデータが並ぶ、HL3サブバンドにおける、IoT端末2が送信したデータを生成する。以後、このデータを、シングルレイヤー化されたHL3サブバンドのデータと呼ぶ。   Similarly, the layer composition control unit 317 reads, from the memory 316, data of layers 0 and 1 of the HL3 sub-band. Then, the layer combining control unit 317 combines the read data of layers 0 and 1 of the HL3 subband, and generates data transmitted by the IoT terminal 2 in the HL3 subband, in which data are arranged in code block units. . Hereinafter, this data is referred to as single-layered HL3 sub-band data.

同様に、レイヤー合成制御部317は、メモリ316から、HH3サブバンドのレイヤー0及び1のデータを読み出す。そして、レイヤー合成制御部317は、読み出した、HH3サブバンドのレイヤー0及び1のデータを合成して、コードブロック単位でデータが並ぶ、HH3サブバンドにおける、IoT端末2が送信したデータを生成する。以後、このデータを、シングルレイヤー化されたHH3サブバンドのデータと呼ぶ。   Similarly, the layer composition control unit 317 reads the data of layers 0 and 1 of the HH3 sub-band from the memory 316. Then, the layer combining control unit 317 combines the read data of layers 0 and 1 of the HH3 sub-band, and generates data transmitted by the IoT terminal 2 in the HH3 sub-band in which data is arranged in code block units. . Hereinafter, this data is referred to as single-layered HH3 sub-band data.

そして、レイヤー合成制御部317は、シングルレイヤー化されたLH3サブバンドのデータと、シングルレイヤー化されたHL3サブバンドのデータと、シングルレイヤー化されたHH3サブバンドのデータと、LL3サブバンドの各コードブロックのレイヤー1のデータとを含むビットストリーム506bを生成する。このビットストリーム506bでは、コードブロック単位でデータが並んでいる。   Then, the layer combining control unit 317 performs each of the single-layered LH3 sub-band data, the single-layered HL3 sub-band data, the single-layered HH3 sub-band data, and the LL3 sub-band. A bitstream 506b is generated that includes Layer 1 data of the code block. In this bit stream 506b, data is arranged in code block units.

このように、ゲートウェイ3は、シングルレイヤー化されたビットストリーム506bを生成することから、IoT端末2から、マルチレイヤー化されたビットストリーム506aが送信される場合であっても、マルチレイヤー化されていないビットストリーム506aが送信される場合であっても、同じ構成の復号化部311を使用することができる。よって、ゲートウェイ3の構成を簡素化することができる。   As described above, since the gateway 3 generates the single-layered bit stream 506b, even if the multi-layered bit stream 506a is transmitted from the IoT terminal 2, the multi-layering is performed. Even in the case where no bitstream 506a is transmitted, the decoding unit 311 having the same configuration can be used. Thus, the configuration of the gateway 3 can be simplified.

次にゲートウェイ3は、ビットストリーム506bに含まれる、LH3サブバンド、HL3サブバンド及びHH3サブバンドの各係数のデータが、Lビットのデータとなるように、当該各係数のデータに対して、必要な数だけ0を下位ビットとして追加する(上述の図47,48参照)。これにより、各コードブロックの係数がLビットのデータで構成されたLH3サブバンド、HL3サブバンド及びHH3サブバンドが得られる。また、ゲートウェイ3は、すでに取得している、LL3サブバンドのレイヤー0のデータと、ビットストリーム506bに含まれる、LL3サブバンドLL3のレイヤー1のデータとを合成して、各コードブロックの各係数が6ビットのデータ(レイヤー0の3ビット+レイヤー1の3ビット)から成るLL3サブバンドを生成する。そして、ゲートウェイ3は、生成したLL3サブバンドに含まれる各係数のデータが、Lビット(L=11)のデータとなるように、当該各係数のデータに対して5つだけ0を下位ビットとして追加する。これにより、各コードブロックの係数がLビットのデータで構成されたLL3サブバンドが得られる。ゲートウェイ3は、得られたLL3サブバンド、LH3サブバンド、HL3サブバンド及びHH3サブバンドの各コードブロックから、それに対応する非差分CBを復元し、復元した非差分CBから成る逆変換対象データ522を逆ウェーブレット変換する。これにより、LL2サブバンドの各コードブロックに対応する非差分CBが生成される。ゲートウェイ3は、生成した非差分CBを認識用データ522として画像認識処理を行う。   Next, the gateway 3 needs the data of each coefficient so that the data of each coefficient of the LH3 subband, the HL3 subband and the HH3 subband included in the bit stream 506b becomes L-bit data. The number of 0s is added as the lower bits by the number (see FIGS. 47 and 48 described above). As a result, LH3 subbands, HL3 subbands and HH3 subbands are obtained in which the coefficients of each code block are composed of L-bit data. Also, the gateway 3 combines the already acquired data of layer 0 of the LL3 subband and the data of layer 1 of the LL3 subband LL3 included in the bit stream 506b, and the respective coefficients of each code block Generates an LL3 subband composed of 6-bit data (3 bits of layer 0 + 3 bits of layer 1). Then, the gateway 3 sets only five 0s as low-order bits to the data of each coefficient so that the data of each coefficient included in the generated LL3 sub-band becomes L-bit (L = 11) data. to add. As a result, LL3 subbands in which the coefficients of each code block are configured by L-bit data are obtained. The gateway 3 restores the corresponding non-differential CB from each code block of the obtained LL3 subband, LH3 subband, HL3 subband and HH3 subband, and inverse-transformed data 522 composed of the recovered non-differential CB. Inverse wavelet transform. This generates a non-differential CB corresponding to each code block of the LL2 subband. The gateway 3 performs an image recognition process with the generated non-differential CB as the recognition data 522.

ここで、逆変換対象データ522を逆ウェーブレット変換した場合には、それによって生成されるデータが示す画像にひずみが発生し、当該画像の品質が劣化する可能性がある。本変形例では、逆ウェーブレット変換を使用してLL2サブバンドのデータを生成する際に、レイヤー0のデータだけではなく、レイヤー1のデータも使用していることから、レイヤー0のデータだけを使用する場合と比較して、逆ウェーブレット変換によって生成されたデータが示す画像の品質を向上することができる。なお、レイヤー0のデータだけを使用して逆ウェーブレット変換してもよい。また、レイヤー0〜3のデータを使用して逆ウェーブレット変換してもよいし、レイヤー0〜4のデータを使用して逆ウェーブレット変換してもよい。   Here, when the inverse transformation target data 522 is subjected to inverse wavelet transformation, distortion occurs in the image represented by the data generated by the inverse transformation, and the quality of the image may be degraded. In this modification, when generating LL2 sub-band data using inverse wavelet transform, not only layer 0 data but also layer 1 data is used, so only layer 0 data is used. The quality of the image represented by the data generated by the inverse wavelet transform can be improved as compared to the case of Note that inverse wavelet transform may be performed using only layer 0 data. Also, data of layers 0 to 3 may be used to perform inverse wavelet transform, and data of layers 0 to 4 may be used to perform inverse wavelet transform.

ゲートウェイ3が画像認識処理を行った結果、検出対象物が検出されると、対象フレーム画像に対する処理が終了する。一方で、ゲートウェイ3は、検出対象物を検出しない場合には、LL1サブバンドを処理対象とするために、LH2サブバンド及びHL2サブバンドの各コードブロックのレイヤー0及び1のデータと、HH2サブバンドの各コードブロックのレイヤー1のデータ(HH2サブバンドにはレイヤー0のデータは存在しない)とを指定データとして指示情報520を送信する。この指示情報520を受け取ったIoT端末2は、LH2サブバンド、HL2サブバンド及びHH2サブバンドの各コードブロックを送信対象コードブロックとして符号化データ505を生成する。そして、IoT端末2では、レイヤー分割処理部250が、符号化データ505を含むビットストリーム506をマルチレイヤー化して、LH2サブバンド及びHL2サブバンドの各コードブロックのレイヤー0及び1のデータと、HH2サブバンドの各コードブロックのレイヤー1のデータとを生成する。そして、レイヤー分割処理部250は、LH2サブバンド及びHL2サブバンドの各コードブロックのレイヤー0及び1のデータと、HH2サブバンドの各コードブロックのレイヤー1のデータとを含むビットストリーム506aを生成してゲートウェイ3に送信する。このとき、IoT端末2は、LH2サブバンド及びHL2サブバンドのレイヤー0のデータを送信した後に、LH2サブバンド、HL2サブバンド及びHH2サブバンドのレイヤー1のデータを送信する。   When the detection target is detected as a result of the gateway 3 performing the image recognition processing, the processing on the target frame image ends. On the other hand, when the gateway 3 does not detect the detection target, in order to process the LL1 subband, data of layers 0 and 1 of each code block of the LH2 subband and the HL2 subband, and the HH2 sub The instruction information 520 is transmitted with the data of layer 1 of each code block of the band (the data of layer 0 does not exist in the HH2 subband) as the designated data. The IoT terminal 2 having received the instruction information 520 generates the encoded data 505 by using each code block of the LH2 subband, the HL2 subband and the HH2 subband as a transmission target code block. Then, in the IoT terminal 2, the layer division processing unit 250 multilayers the bit stream 506 including the encoded data 505 to obtain data of layers 0 and 1 of each code block of the LH 2 subband and the HL 2 subband, and HH 2 Generate layer 1 data of each code block of the subband. Then, the layer division processing unit 250 generates a bit stream 506a including data of layers 0 and 1 of each code block of LH2 subband and HL2 subband and data of layer 1 of each code block of HH2 subband. To the gateway 3. At this time, the IoT terminal 2 transmits layer 0 data of the LH 2 subband and the HL 2 subband, and then transmits layer 1 data of the LH 2 subband, the HL 2 subband and the HH 2 subband.

ゲートウェイ3では、レイヤー合成制御部317は、IoT端末2から受け取ったビットストリーム506aをメモリ316に記憶する。そして、レイヤー合成制御部317は、メモリ316から、同一サブバンドの複数のレイヤーのデータを読み出して合成して、シングルレイヤー化されたビットストリーム506bを生成する。   In the gateway 3, the layer composition control unit 317 stores the bit stream 506 a received from the IoT terminal 2 in the memory 316. Then, the layer combining control unit 317 reads out data of a plurality of layers of the same sub-band from the memory 316 and combines them to generate a single-layer bit stream 506b.

具体的には、レイヤー合成制御部317は、メモリ316から、LH2サブバンドのレイヤー0及び1のデータを読み出す。そして、レイヤー合成制御部317は、読み出した、LH2サブバンドのレイヤー0及び1のデータを合成して、コードブロック単位でデータが並ぶ、LH2サブバンドにおける、IoT端末2が送信したデータを生成する。以後、このデータを、シングルレイヤー化されたLH2サブバンドのデータと呼ぶ。   Specifically, the layer composition control unit 317 reads the data of layers 0 and 1 of the LH2 sub-band from the memory 316. Then, the layer combining control unit 317 combines the read data of layers 0 and 1 of the LH2 subband, and generates data transmitted by the IoT terminal 2 in the LH2 subband in which the data are arranged in code block units. . Hereinafter, this data is referred to as single-layered LH2 subband data.

同様に、レイヤー合成制御部317は、メモリ316から、HL2サブバンドのレイヤー0及び1のデータを読み出す。そして、レイヤー合成制御部317は、読み出した、HL2サブバンドのレイヤー0及び1のデータを合成して、コードブロック単位でデータが並ぶ、HL2サブバンドにおける、IoT端末2が送信したデータを生成する。以後、このデータを、シングルレイヤー化されたHL2サブバンドのデータと呼ぶ。   Similarly, the layer composition control unit 317 reads, from the memory 316, data of layers 0 and 1 of the HL2 subband. Then, the layer combining control unit 317 combines the read data of layers 0 and 1 of the HL2 subband, and generates data transmitted by the IoT terminal 2 in the HL2 subband, in which data are arranged in code block units. . Hereinafter, this data is referred to as single-layered HL2 subband data.

そして、レイヤー合成制御部317は、シングルレイヤー化されたLH2サブバンドのデータと、シングルレイヤー化されたHL2サブバンドのデータと、HH2サブバンドの各コードブロックのレイヤー1のデータとを含むビットストリーム506bを生成する。このビットストリーム506bでは、コードブロック単位でデータが並んでいる。   Then, the layer combining control unit 317 is a bitstream including data of LH2 subbands in a single layer, data of HL2 subbands in a single layer, and data of layer 1 of each code block of HH2 subbands. Generate 506b. In this bit stream 506b, data is arranged in code block units.

次にゲートウェイ3は、ビットストリーム506bに含まれる、サブバンドLH2,HL2,HH2の各係数のデータが、Lビットのデータとなるように、当該各係数のデータに対して、必要な数だけ0を下位ビットとして追加する(上述の図47,48参照)。これにより、各コードブロックの係数がLビットのデータで構成されたLH2サブバンド、HL2サブバンド及びHH2サブバンドが得られる。そして、ゲートウェイ3は、得られたLH2サブバンド、HL2サブバンド及びHH2サブバンドの各コードブロックから、それに対応する非差分CBを復元する。   Next, the gateway 3 adds the necessary number of data to each coefficient data so that the data of each coefficient of the subbands LH2, HL2, HH2 included in the bit stream 506b becomes L-bit data. Are added as lower bits (see FIGS. 47 and 48 described above). As a result, LH2, HL2, and HH2 subbands in which the coefficients of each code block are composed of L-bit data are obtained. Then, the gateway 3 restores the corresponding non-differential CB from each code block of the obtained LH2 subband, HL2 subband and HH2 subband.

次にゲートウェイ3は、復元した非差分CBと、すでに取得している、LL2サブバンドの各コードブロックに対応する非差分CBとから成る逆変換対象データ522に対して逆ウェーブレット変換を行う。これより、LL1サブバンドの各コードブロックに対応する非差分CBが生成される。ゲートウェイ3は、逆ウェーブレット変換によって得られた非差分CBを認識用データ522として画像認識処理を行う。その後、対象フレーム画像に対する処理が終了する。   Next, the gateway 3 performs inverse wavelet transformation on the inverse transformation target data 522 including the restored non-differential CB and the non-differential CB corresponding to each code block of the LL2 subband that has already been acquired. From this, a non-differential CB corresponding to each code block of the LL1 subband is generated. The gateway 3 performs image recognition processing with the non-differential CB obtained by the inverse wavelet transform as the recognition data 522. Thereafter, the process on the target frame image is completed.

このように、本変形例に係る画像処理システム4では、IoT端末2がレイヤー単位でデータを送信することができることから、IoT端末2の消費電力を低減することができる。   As described above, in the image processing system 4 according to the present modification, since the IoT terminal 2 can transmit data in units of layers, the power consumption of the IoT terminal 2 can be reduced.

なお、ビットストリーム506がマルチレイヤー化される場合の画像処理システム4の動作は上記の例には限られない。例えば、ゲートウェイ3は、上述のCB対応関係情報を使用して指定データを決定してもよい。   The operation of the image processing system 4 when the bit stream 506 is multilayered is not limited to the above example. For example, the gateway 3 may determine designated data using the above-described CB correspondence information.

<その他の変形例>
上記の各例では、情報処理システム1は、IoTシステムとして使用されているが、他のシステムとして使用されてもよい。
<Other Modifications>
In each of the above examples, the information processing system 1 is used as an IoT system, but may be used as another system.

また上記の各例では、JPEG2000に基づいてデータを階層化しているが、JPEG2000でのサブバンド分割と同様にしてデータを階層化する他の規格に基づいてデータを階層化してもよい。   Further, in each of the above examples, data is hierarchized based on JPEG 2000. However, data may be hierarchized based on another standard for hierarchizing data in the same manner as sub-band division in JPEG 2000.

以上のように、情報処理システム1、画像処理システム4及び画像処理装置2,3は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この発明がそれに限定されるものではない。また、上述した各種変形例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。   As described above, the information processing system 1, the image processing system 4, and the image processing apparatuses 2 and 3 have been described in detail, but the above description is an exemplification in all aspects, and the present invention is limited thereto It is not a thing. Further, the various modifications described above can be combined and applied as long as no contradiction arises. And, it is understood that innumerable modifications not illustrated may be assumed without departing from the scope of the present invention.

1 情報処理システム
2 画像処理装置(IoT端末)
3 画像処理装置(ゲートウェイ)
4 画像処理システム
22 階層化部
23 差分生成部
25a,30b 送信部
26 決定部
28,226 動き補正部
30a 受信部
33 画像認識部
240 符号化部
311 復号化部
321 第1処理部
326 復元部
1 Information processing system 2 Image processing device (IoT terminal)
3 Image processing device (gateway)
4 image processing system 22 hierarchization unit 23 difference generation unit 25a, 30b transmission unit 26 determination unit 28, 226 motion correction unit 30a reception unit 33 image recognition unit 240 encoding unit 311 decoding unit 321 first processing unit 326 restoration unit

Claims (24)

フレーム画像を示す階層化された階層化データを生成する第1生成部と、
2つのフレーム画像についての前記階層化データの差分を示す差分階層化データを生成する第2生成部と、
前記差分階層化データのうち、その値の絶対値がしきい値以上あるいは当該しきい値よりも大きい第1データに基づいて、前記差分階層化データから送信対象データを決定する第1決定部と、
前記送信対象データを圧縮符号化して符号化データを生成する符号化部と、
前記符号化データを送信する第1送信部と
を備える画像処理装置。
A first generation unit configured to generate hierarchical data hierarchically showing a frame image;
A second generation unit that generates difference hierarchical data indicating a difference between the hierarchical data of two frame images;
A first determination unit that determines transmission target data from the differentially-layered data based on first data of the differentially-layered data whose absolute value is greater than or equal to a threshold value or greater than the threshold value; ,
An encoding unit that compresses and encodes the transmission target data to generate encoded data;
And a first transmission unit configured to transmit the encoded data.
請求項1に記載の画像処理装置であって、
前記第2生成部は、前記2つのフレーム画像についての量子化後の前記階層化データの差分を示す前記差分階層化データを生成する、画像処理装置。
The image processing apparatus according to claim 1, wherein
The image processing device, wherein the second generation unit generates the difference hierarchical data indicating a difference between the hierarchical data after quantization of the two frame images.
請求項1及び請求項2のいずれか一つに記載の画像処理装置であって、
前記第1決定部は、前記送信部から送信される前記符号化データを受信し、受信した当該符号化データに基づいて処理を行う装置からの指示情報と前記第1データとに基づいて、前記送信対象データを決定する、画像処理装置。
An image processing apparatus according to any one of claims 1 and 2.
The first determination unit receives the encoded data transmitted from the transmission unit, and based on the first data and instruction information from a device that performs processing based on the received encoded data. An image processing apparatus that determines transmission target data.
請求項1乃至請求項3のいずれか一つに記載の画像処理装置であって、
前記第1決定部は、前記差分階層化データに基づいて、前記第1データを特定するためのマスクデータを生成し、前記マスクデータに基づいて、前記送信対象データを決定する、画像処理装置。
An image processing apparatus according to any one of claims 1 to 3, wherein
The image processing apparatus, wherein the first determination unit generates mask data for specifying the first data based on the difference hierarchical data, and determines the transmission target data based on the mask data.
請求項4に記載の画像処理装置であって、
前記階層化データは、ウェーブレット変換されたデータであって、
前記階層化データは、複数の分解レベルのそれぞれについて、複数のサブバンドを含み、
前記マスクデータには、サブバンドにおいて、その値の絶対値が前記しきい値以上あるいは当該しきい値よりも大きい第2データを特定するためのサブバンドマスクデータが含まれ、
前記第1決定部は、各分解レベルについて、当該分解レベルの複数のサブバンドに共通の前記サブバンドマスクデータを生成する、画像処理装置。
The image processing apparatus according to claim 4,
The hierarchical data is wavelet-transformed data, and
The layered data includes a plurality of subbands for each of a plurality of decomposition levels,
The mask data includes sub-band mask data for specifying second data whose absolute value is greater than or equal to the threshold value in the sub-bands,
The image processing device, wherein the first determination unit generates, for each decomposition level, the subband mask data common to a plurality of subbands of the decomposition level.
請求項1乃至請求項5のいずれか一つに記載の画像処理装置であって、
前記フレーム画像を示す画像データに対して、前記フレーム画像を撮影するカメラの位置の変化による影響を補正する補正処理を行う補正部をさらに備え、
前記第1生成部は、前記補正処理が行われた前記画像データに基づいて、前記階層化データを生成する、画像処理装置。
An image processing apparatus according to any one of claims 1 to 5, wherein
The image processing apparatus further includes a correction unit that performs correction processing on image data indicating the frame image to correct an influence of a change in a position of a camera that captures the frame image.
The image processing apparatus, wherein the first generation unit generates the hierarchical data based on the image data subjected to the correction processing.
請求項1乃至請求項5のいずれか一つに記載の画像処理装置であって、
前記階層化データに対して、前記フレーム画像を撮影するカメラの位置の変化による影響を補正する補正処理を行う補正部をさらに備え、
前記第2生成部は、前記補正処理が行われた、前記2つのフレーム画像についての前記階層化データの差分を示す前記差分階層化データを生成する、画像処理装置。
An image processing apparatus according to any one of claims 1 to 5, wherein
The hierarchical data further includes a correction unit that performs correction processing to correct an influence of a change in a position of a camera that captures the frame image.
The image processing apparatus, wherein the second generation unit generates the difference hierarchical data indicating the difference between the hierarchical data of the two frame images on which the correction process has been performed.
請求項1乃至請求項7のいずれか一つに記載の画像処理装置であって、
前記第1決定部は、前記差分階層化データ及び前記階層化データから前記送信対象データを決定する、画像処理装置。
The image processing apparatus according to any one of claims 1 to 7, wherein
The image processing apparatus, wherein the first determination unit determines the transmission target data from the difference layered data and the layered data.
請求項8に記載の画像処理装置であって、
前記第1決定部は、
前記第1データに基づいて、前記送信対象データに含められる候補となる第1候補データを前記差分階層化データから決定し、
前記第1候補データのデータ量が、前記階層化データにおける、当該第1候補データに対応する第2候補データのデータ量よりも小さい場合、前記第1候補データを前記送信対象データに含め、
前記第2候補データのデータ量が前記第1候補データのデータ量よりも小さい場合、前記第2候補データを前記送信対象データに含める、画像処理装置。
The image processing apparatus according to claim 8,
The first determination unit is
Based on the first data, first candidate data to be candidates to be included in the transmission target data is determined from the differential layering data,
If the data amount of the first candidate data is smaller than the data amount of second candidate data corresponding to the first candidate data in the hierarchical data, the first candidate data is included in the transmission target data,
The image processing apparatus, wherein the second candidate data is included in the transmission target data when the data amount of the second candidate data is smaller than the data amount of the first candidate data.
請求項1乃至請求項9のいずれか一つに記載の画像処理装置であって、
前記送信部は、パケット化されていない前記符号化データを送信する、画像処理装置。
The image processing apparatus according to any one of claims 1 to 9, wherein
The image processing apparatus, wherein the transmission unit transmits the encoded data that is not packetized.
請求項1乃至請求項10のいずれか一つに記載の画像処理装置であって、
前記送信部から送信される前記符号化データは、当該符号化データに基づいて処理を行う装置で受信され、
前記送信対象データに含まれる、画素に対応する値を構成する複数のビットを最上位から見た場合に初めて1が現れるビット位置よりも1ビットだけ上位のビット位置を第1ビット位置とし、当該第1ビット位置から前記所定の処理に応じたビット数だけ下位のビット位置を第2ビット位置とした場合に、前記符号化部は、前記複数のビットのうち、前記最上位から前記第2ビット位置までのビットを圧縮符号化し、当該複数のビットの他のビットを圧縮符号化しない、画像処理装置。
An image processing apparatus according to any one of claims 1 to 10, wherein
The encoded data transmitted from the transmission unit is received by a device that performs processing based on the encoded data,
A bit position higher by 1 bit than a bit position where 1 appears for the first time when a plurality of bits constituting a value corresponding to a pixel included in the transmission target data is viewed from the highest position is a first bit position When the bit position lower than the first bit position by the number of bits according to the predetermined processing is set as the second bit position, the encoding unit is configured to select the second most significant bit from the plurality of bits. An image processing apparatus, which compresses and encodes a bit up to a position and does not compress and code other bits of the plurality of bits.
請求項1乃至請求項11のいずれか一つに記載の画像処理装置である第1装置と通信する第2装置である画像処理装置であって、
前記第1装置から送信される前記符号化データを受信する受信部と、
前記符号化データに基づいて処理を行う処理部と
を備える、画像処理装置。
An image processing apparatus as a second apparatus for communicating with a first apparatus as the image processing apparatus according to any one of claims 1 to 11,
A receiver configured to receive the encoded data transmitted from the first device;
And a processing unit that performs processing based on the encoded data.
請求項12に記載の画像処理装置であって、
前記処理部は、
前記符号化データに伸張復号化を行って、前記差分階層化データに含まれるデータである差分データを復元する復号化部と、
前記差分データと、前記2つのフレーム画像のうちの一方についての前記階層化データに含まれる、当該差分データに対応するデータである第1非差分データとに基づいて、前記2つのフレーム画像のうちの他方についての前記階層化データに含まれる、当該差分データに対応する第2非差分データを復元する復元部と
を有する、画像処理装置。
The image processing apparatus according to claim 12, wherein
The processing unit is
A decoding unit that performs expansion decoding on the encoded data to restore difference data that is data included in the difference layered data;
Of the two frame images, based on the difference data and first non-difference data that is data corresponding to the difference data, which is included in the layered data for one of the two frame images. An image processing apparatus, comprising: a restoration unit that restores second non-difference data corresponding to the difference data, which is included in the hierarchical data of the other of the two.
請求項13に記載の画像処理装置であって、
前記処理部は、前記第2非差分データに基づく画像に対する画像認識処理を行う画像認識部をさらに有する、画像処理装置。
The image processing apparatus according to claim 13, wherein
The image processing apparatus, wherein the processing unit further includes an image recognition unit that performs an image recognition process on an image based on the second non-difference data.
請求項8及び請求項9のいずれか一つに記載の画像処理装置である第1装置と通信する第2装置である画像処理装置であって、
前記第1装置から送信される前記符号化データを受信する受信部と、
前記符号化データに基づいて処理を行う処理部と
を備え、
前記処理部は、
前記符号化データに伸張復号化を行う復号化部と、
前記伸張復号化によって復元される、前記差分階層化データに含まれるデータである差分データと、前記2つのフレーム画像のうちの一方についての前記階層化データに含まれる、当該差分データに対応するデータである第1非差分データとに基づいて、前記2つのフレーム画像のうちの他方についての前記階層化データに含まれる、当該差分データに対応する第2非差分データを復元する復元部と
を有し、
前記処理部は、前記伸張復号化によって復元される、前記階層化データに含まれるデータである第3非差分データと、前記第2非差分データとに基づいて処理を行う、画像処理装置。
An image processing apparatus as a second apparatus for communicating with a first apparatus as the image processing apparatus according to any one of claims 8 and 9.
A receiver configured to receive the encoded data transmitted from the first device;
A processing unit that performs processing based on the encoded data;
The processing unit is
A decoding unit that performs expansion decoding on the encoded data;
Data corresponding to the difference data included in the hierarchized data for one of the two frame images, the difference data being data included in the difference hierarchized data, restored by the expansion decoding The second non-differential data corresponding to the difference data included in the layered data of the other of the two frame images based on the first non-difference data being And
The image processing apparatus, wherein the processing unit performs processing based on third non-difference data which is data included in the layered data and which is restored by the decompression decoding and the second non-difference data.
請求項15に記載の画像処理装置であって、
前記処理部は、前記第2及び第3非差分データに基づく画像に対して画像認識処理を行う、画像処理装置。
An image processing apparatus according to claim 15.
The image processing apparatus, wherein the processing unit performs an image recognition process on an image based on the second and third non-difference data.
請求項3に記載の画像処理装置である第1装置と通信する第2装置である画像処理装置であって、
前記第1装置から送信される前記符号化データを受信する受信部と、
前記符号化データに基づいて処理を行う処理部と、
前記処理部での処理の結果に基づいて、前記第1装置が送信すべきデータを当該第1装置に指示するための指示情報を生成する第3生成部と、
前記指示情報を前記第1装置に送信する第2送信部と
を備え、
前記第1装置は、前記指示情報に基づいて、前記送信対象データを決定する、画像処理装置。
An image processing apparatus, which is a second apparatus that communicates with a first apparatus that is the image processing apparatus according to claim 3.
A receiver configured to receive the encoded data transmitted from the first device;
A processing unit that performs processing based on the encoded data;
A third generation unit configured to generate instruction information for instructing the first device to transmit data to be transmitted by the first device, based on a result of processing in the processing unit;
And a second transmission unit that transmits the instruction information to the first device.
The image processing apparatus, wherein the first device determines the transmission target data based on the instruction information.
請求項11に記載の画像処理装置である第1装置と通信する第2装置である画像処理装置であって、
前記第1装置から送信される前記符号化データを受信する受信部と、
前記符号化データに基づいて処理を行う処理部と、
前記処理部での処理に応じて、前記第2ビット位置を決める前記ビット数を決定する第2決定部と
を備える、画像処理装置。
An image processing apparatus as a second apparatus that communicates with a first apparatus as the image processing apparatus according to claim 11;
A receiver configured to receive the encoded data transmitted from the first device;
A processing unit that performs processing based on the encoded data;
An image processing apparatus comprising: a second determination unit configured to determine the number of bits for determining the second bit position according to processing in the processing unit;
請求項12乃至請求項18のいずれか一つに記載の画像処理装置であって、
前記第2装置は、前記処理部での処理の結果を送信する、画像処理装置。
An image processing apparatus according to any one of claims 12 to 18, wherein
The image processing apparatus, wherein the second device transmits the result of processing in the processing unit.
請求項1乃至請求項11のいずれか一つに記載の画像処理装置である第1装置と、
請求項12乃至請求項19のいずれか一つに記載の画像処理装置である第2装置と
を備える、画像処理システム。
A first apparatus, which is the image processing apparatus according to any one of claims 1 to 11.
An image processing system comprising: a second apparatus which is the image processing apparatus according to any one of claims 12 to 19.
請求項20に記載の画像処理システムと、
前記画像処理システムの前記第2装置から、前記処理部での処理の結果を受け取る第3装置と
備える、情報処理システム。
An image processing system according to claim 20,
An information processing system, comprising: a third device that receives a result of processing in the processing unit from the second device of the image processing system.
請求項21に記載の情報処理システムであって、
前記第1及び第2装置は、ローカルネットワークで接続され、
前記第2及び第3装置は、インターネットで接続されている、情報処理システム。
The information processing system according to claim 21, wherein
The first and second devices are connected by a local network,
An information processing system, wherein the second and third devices are connected via the Internet.
請求項22に記載の情報処理システムであって、
前記第2装置には複数の前記第1装置が前記ローカルネットワークで接続されている、情報処理システム。
The information processing system according to claim 22, wherein
An information processing system, wherein a plurality of the first devices are connected to the second device by the local network.
画像処理装置での画像処理方法であって、
フレーム画像を示す階層化された階層化データを生成する工程と、
2つのフレーム画像についての前記階層化データの差分を示す差分階層化データを生成する工程と、
前記差分階層化データのうち、その値の絶対値がしきい値以上あるいは当該しきい値よりも大きいデータに基づいて、前記差分階層化データから送信対象データを決定する工程と、
前記送信対象データを圧縮符号化して符号化データを生成する工程と、
前記符号化データを送信する工程と
を備える画像処理方法。
An image processing method in an image processing apparatus
Generating hierarchical data representing a frame image;
Generating difference hierarchical data indicating a difference between the hierarchical data of two frame images;
Determining transmission target data from the differentially-layered data based on data of the differentially-layered data whose absolute value is greater than or equal to a threshold value or greater than the threshold value;
Compression coding the transmission target data to generate coded data;
Transmitting the encoded data.
JP2017080747A 2017-04-14 2017-04-14 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, INFORMATION PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD Pending JP2018182569A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017080747A JP2018182569A (en) 2017-04-14 2017-04-14 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, INFORMATION PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD
PCT/JP2018/014285 WO2018190199A1 (en) 2017-04-14 2018-04-03 Image processing device, image processing system, information processing system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017080747A JP2018182569A (en) 2017-04-14 2017-04-14 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, INFORMATION PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD

Publications (1)

Publication Number Publication Date
JP2018182569A true JP2018182569A (en) 2018-11-15

Family

ID=63793374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017080747A Pending JP2018182569A (en) 2017-04-14 2017-04-14 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, INFORMATION PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD

Country Status (2)

Country Link
JP (1) JP2018182569A (en)
WO (1) WO2018190199A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022064853A (en) * 2020-10-14 2022-04-26 アクシス アーベー Method and system for movement segmentation
JP2022525794A (en) * 2019-04-05 2022-05-19 ウェイモ エルエルシー Image sensor architecture

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109584186A (en) * 2018-12-25 2019-04-05 西北工业大学 A kind of unmanned aerial vehicle onboard image defogging method and device
CN111684803A (en) * 2019-06-20 2020-09-18 深圳市大疆创新科技有限公司 Method and apparatus for bit plane decoding
CN113485623B (en) * 2021-09-07 2021-12-07 成都国星宇航科技有限公司 Image display method and device capable of realizing multi-dimensional comparison and terminal
CN114264010B (en) * 2021-12-15 2023-09-19 重庆海润节能技术股份有限公司 An intelligent management platform integrating the Internet of Things to realize negative pressure ward units
CN116647802A (en) * 2022-02-15 2023-08-25 华为技术有限公司 Communication method and communication device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU6441398A (en) * 1998-03-20 1999-10-18 Mitsubishi Electric Corporation Lossy/lossless region-of-interest image coding
JP2001127990A (en) * 1999-11-01 2001-05-11 Mega Chips Corp Information communication system
JP2002027466A (en) * 2000-07-13 2002-01-25 Matsushita Electric Ind Co Ltd Coding area correction device and coding device
JP4129913B2 (en) * 2002-12-12 2008-08-06 株式会社リコー Image processing apparatus and image processing method
JP4789148B2 (en) * 2005-09-06 2011-10-12 株式会社メガチップス Compression encoding apparatus, compression encoding method and program
GB2484969B (en) * 2010-10-29 2013-11-20 Canon Kk Improved reference frame for video encoding and decoding
JP6149534B2 (en) * 2013-06-19 2017-06-21 株式会社ソシオネクスト Image transmission apparatus, image transmission system, image transmission method, and image transmission program
JP6345961B2 (en) * 2014-03-28 2018-06-20 株式会社メガチップス Image decoding apparatus and image decoding method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022525794A (en) * 2019-04-05 2022-05-19 ウェイモ エルエルシー Image sensor architecture
JP7275307B2 (en) 2019-04-05 2023-05-17 ウェイモ エルエルシー image sensor architecture
US11972342B2 (en) 2019-04-05 2024-04-30 Waymo Llc Image sensor architecture
JP2022064853A (en) * 2020-10-14 2022-04-26 アクシス アーベー Method and system for movement segmentation
JP7359816B2 (en) 2020-10-14 2023-10-11 アクシス アーベー Method and system for motion segmentation

Also Published As

Publication number Publication date
WO2018190199A1 (en) 2018-10-18

Similar Documents

Publication Publication Date Title
JP2018182569A (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, INFORMATION PROCESSING SYSTEM, AND IMAGE PROCESSING METHOD
CN100527845C (en) Method for scalable image transcoding
Zhao et al. Multiple description convolutional neural networks for image compression
US6917716B2 (en) Image processing apparatus and method and storage medium
JP5389172B2 (en) Method for reconstructing a depth image and decoder for reconstructing a depth image
JP2003504987A (en) Encoding method for compressing video sequence
JP2006014121A (en) Image encoding method, image encoding apparatus, and imaging apparatus
CN1383684A (en) Color video encoding and decoding method
Tausif et al. FrWF-based LMBTC: Memory-efficient image coding for visual sensors
JP2000504911A (en) Facsimile compliant image compression method and system
KR20000059799A (en) Device and method for motion compensation coding using wavelet coding
CN108881913B (en) Method and apparatus for image encoding
Koya et al. Analysis of application of arithmetic coding on dct and dct-dwt hybrid transforms of images for compression
WO2025051017A1 (en) Method, non-transitory computer readable storage medium and decoder for generative face video compression using dense motion flow translator
US12477120B2 (en) Keypoints based video compression
WO2018190198A1 (en) Image processing device, image processing system, information processing system, and image processing method
Fouad A lossless image compression using integer wavelet transform with a simplified median-edge detector algorithm
KR101421231B1 (en) Apparatus for Compressing Video using Wavelet Transform
JP2005223852A (en) Image-encoding device and method, and image-decoding device and method
JP2000209592A (en) Image transmission apparatus and method, system and control method thereof
Gao et al. A FFMPEG-Based Analysis of Video Codec Technology
Vijay et al. A review of image transmission using real time technique over wmsn
JP4194311B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, and methods thereof
JP4934808B2 (en) Image communication apparatus and image communication method
Jayanthi et al. Multi Wavelet Based Image Compression for Tele-Medical Applications

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170501