[go: up one dir, main page]

JP2019176471A - Communication system and communication method - Google Patents

Communication system and communication method Download PDF

Info

Publication number
JP2019176471A
JP2019176471A JP2019056527A JP2019056527A JP2019176471A JP 2019176471 A JP2019176471 A JP 2019176471A JP 2019056527 A JP2019056527 A JP 2019056527A JP 2019056527 A JP2019056527 A JP 2019056527A JP 2019176471 A JP2019176471 A JP 2019176471A
Authority
JP
Japan
Prior art keywords
data processing
image
terminal
service
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019056527A
Other languages
Japanese (ja)
Other versions
JP7251247B2 (en
Inventor
敬倫 加藤
Takamichi Kato
敬倫 加藤
加藤 喜永
Yoshinaga Kato
喜永 加藤
啓一 河口
Keiichi Kawaguchi
啓一 河口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US16/366,422 priority Critical patent/US10931836B2/en
Publication of JP2019176471A publication Critical patent/JP2019176471A/en
Application granted granted Critical
Publication of JP7251247B2 publication Critical patent/JP7251247B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】魚眼カメラで撮像された画像から物体を検出し、その物体を含む領域を切出し、更に射影方式変換を行なう技術は既に知られている。しかし、今までの魚眼カメラ装置は特定のアプリケーションを想定して構築されており、出力画像を用いて行なう後処理の目的(認識やぼかし等)や後処理を実行するサーバ等の性能の変化に応じて画像サイズや射影方式を変更できないという問題があった。【解決手段】通信システムにおいて、分散データ処理端末6は、サービス提供サーバ8から提供されるサービスに関連付けて、画像取得端末2または集中データ処理サーバ7のどちらか一方に対する画像処理内容を他方へ要求後に応答として得られる画像処理内容を前記一方へ送信し、画像取得端末2の画像処理後に受信した画像データを分散データ処理端末6に送信することにより、サービスに対する画像処理を集中データ処理サーバ7に処理させる。【選択図】図1A technique for detecting an object from an image captured by a fish-eye camera, cutting out a region including the object, and further performing a projection method conversion is already known. However, conventional fish-eye camera devices have been built with a specific application in mind, and are subject to changes in the purpose (recognition, blurring, etc.) of post-processing performed using output images, and in the performance of servers that perform post-processing. There is a problem that the image size and the projection method cannot be changed according to the situation. In a communication system, a distributed data processing terminal (6) requests image processing content for one of an image acquisition terminal (2) and a centralized data processing server (7) to the other in association with a service provided from a service providing server (8). The image processing contents obtained later as a response are transmitted to the one side, and the image data received after the image processing of the image acquisition terminal 2 is transmitted to the distributed data processing terminal 6, so that the image processing for the service is transmitted to the centralized data processing server 7. Let it be processed. [Selection diagram] Fig. 1

Description

本開示内容は、通信システム、及び通信方法に関する。   The present disclosure relates to a communication system and a communication method.

近年、IoT(Internet of Things)が注目されている。その中でも、特に、エッジコンピューティングの通信システムが注目されている。この通信システムでは、端末側で画像や音声のデータを取得し、インターネットを介してサーバに送信し、サーバ側で認識処理を行なう。特許文献1では、人物の顔を認識する処理を実行する目的で、端末(エッジノード)側に顔認識のためのカメラを設置し、画像取得端末はカメラから取得した画像データをサーバ(顔認識のプリケーションサーバ)に送信し、サーバで顔の認証処理を実行するクラウドサービスプラットフォームが開示されている。   In recent years, IoT (Internet of Things) has attracted attention. Among them, in particular, an edge computing communication system is attracting attention. In this communication system, image or audio data is acquired on the terminal side, transmitted to a server via the Internet, and recognition processing is performed on the server side. In Patent Document 1, for the purpose of executing processing for recognizing a person's face, a camera for face recognition is installed on the terminal (edge node) side, and the image acquisition terminal receives image data acquired from the camera on a server (face recognition). A cloud service platform is disclosed that performs facial authentication processing on the server.

また、魚眼カメラで撮像された画像から物体を検出し、その物体を含む領域を切出し、更に射影方式変換を行なう技術は既に知られている。   Further, a technique for detecting an object from an image picked up by a fisheye camera, cutting out a region including the object, and further performing projection system conversion is already known.

しかしながら、今までの魚眼カメラは特定(固定)のアプリケーションを想定して構築されており、魚眼カメラ等の撮像により得られた撮像画像データを用いて行なう後処理の目的(顔認識、ぼかし等)の変更や、後処理を実行するサーバ等の性能の違いがあるため、画像サイズや射影方式の変更等のように利用者の様々なニーズに対応できないという問題があった。   However, conventional fisheye cameras have been constructed assuming specific (fixed) applications, and the purpose of post-processing (face recognition, blurring) performed using captured image data obtained by imaging with a fisheye camera or the like. Etc.) and there is a difference in the performance of the server that executes post-processing, etc., and there is a problem that it is not possible to respond to various needs of users such as changes in image size and projection method.

請求項1に係る発明は、通信ネットワークを介してサービスを提供するサービス提供サーバと、所定の画像処理により生成された撮像画像のデータを得る画像取得端末と、前記画像データに対して所定の画像処理を行う集中データ処理サーバと、前記画像取得端末と前記集中データ処理サーバとを仲介する分散データ処理端末と、を有する通信システムであって、前記分散データ処理端末は、前記サービス提供サーバから提供されるサービスに関連付けて、前記画像取得端末または前記集中データ処理サーバのどちらか一方に対する画像処理内容を他方へ要求後に応答として得られる画像処理内容を前記一方へ送信し、前記画像取得端末の画像処理後に受信した画像データを前記分散データ処理端末に送信することにより、前記サービスに対する画像処理を前記集中データ処理サーバに処理させる送受信手段を有することを特徴とする通信システムである。   The invention according to claim 1 is a service providing server that provides a service via a communication network, an image acquisition terminal that obtains captured image data generated by predetermined image processing, and a predetermined image for the image data. A communication system having a centralized data processing server that performs processing, and a distributed data processing terminal that mediates the image acquisition terminal and the centralized data processing server, wherein the distributed data processing terminal is provided from the service providing server The image processing content obtained as a response after requesting the image processing content for one of the image acquisition terminal or the centralized data processing server to the other is transmitted to the one in association with the service to be performed, and the image of the image acquisition terminal By transmitting image data received after processing to the distributed data processing terminal, It is a communication system characterized by having a reception means for processing that image processing to the centralized data processing server.

以上説明したように本発明によれば、撮像により得られた撮像画像データに対する後処理が利用者の様々なニーズに対応できるという効果を奏する。   As described above, according to the present invention, there is an effect that post-processing on captured image data obtained by imaging can meet various needs of users.

本実施形態に係る通信システムの概略図である。It is the schematic of the communication system which concerns on this embodiment. 実時間データ処理端末のハードウェア構成図である。It is a hardware block diagram of a real-time data processing terminal. 撮像ユニットのハードウェア構成図である。It is a hardware block diagram of an imaging unit. 図4(a)は撮像ユニット40bで撮像された半球画像(前側)、図4(b)は撮像ユニット40bで撮像された半球画像(後側)、図4(c)は正距円筒図法により表された画像を示した図である。4A is a hemispherical image (front side) captured by the imaging unit 40b, FIG. 4B is a hemispherical image captured by the imaging unit 40b (rear side), and FIG. 4C is an equirectangular projection. It is the figure which showed the image represented. 近端末データ処理装置又は分散データ処理端末のハードウェア構成図である。It is a hardware block diagram of a near terminal data processing apparatus or a distributed data processing terminal. 集中データ処理サーバのハードウェア構成図である。It is a hardware block diagram of a centralized data processing server. 画像取得端末における実時間データ処理端末及び近端末データ処理装置のソフトウェア構成図である。It is a software block diagram of the real-time data processing terminal and near terminal data processing apparatus in an image acquisition terminal. 通信システムの機能ブロック図である。It is a functional block diagram of a communication system. 通信システムの機能ブロック図である。It is a functional block diagram of a communication system. (a)は撮像素子情報管理テーブルの概念図、(b)はサイクル値管理テーブルの概念図である。(A) is a conceptual diagram of an image sensor information management table, and (b) is a conceptual diagram of a cycle value management table. (a)は画像取得プログラム管理テーブルの概念図、(b)は合成処理プログラム管理テーブルの概念図、(c)は歪み補正プログラム管理テーブルの概念図、(d)はサービスプログラム管理テーブルの概念図である。(A) is a conceptual diagram of an image acquisition program management table, (b) is a conceptual diagram of a composition processing program management table, (c) is a conceptual diagram of a distortion correction program management table, and (d) is a conceptual diagram of a service program management table. It is. (a)物体認識サービス情報のテーブル、(b)物体ぼかしサービス情報のテーブル、(c)物体ぼかしサービス情報のテーブルを示す図である。It is a figure which shows the table of (a) object recognition service information, (b) object blurring service information, (c) object blurring service information. 照合データ管理テーブルの概念図である。It is a conceptual diagram of a collation data management table. セッション管理テーブルの概念図である。It is a conceptual diagram of a session management table. 端末IDの概念図である。It is a conceptual diagram of terminal ID. 認証サーバ管理テーブルの概念図である。It is a conceptual diagram of an authentication server management table. 認証管理テーブルの概念図である。It is a conceptual diagram of an authentication management table. 認証処理を示したシーケンス図である。It is the sequence diagram which showed the authentication process. 認証処理を示したシーケンス図である。It is the sequence diagram which showed the authentication process. 分散データ処理端末の画面例を示す図である。It is a figure which shows the example of a screen of a distributed data processing terminal. 分散データ処理端末の画面例を示す図である。It is a figure which shows the example of a screen of a distributed data processing terminal. 画像認識の開始要求の処理を示したシーケンス図である。It is the sequence figure which showed the processing of the start request of image recognition. 実時間データ処理端末の設定に処理設定テーブル(図13(a))を用いた場合の物体ぼかしサービスの処理を示したシーケンス図である。It is the sequence figure which showed the process of the object blurring service at the time of using a process setting table (Fig.13 (a)) for the setting of a real time data processing terminal. 実時間データ処理端末の設定に処理設定テーブル(図13(b))を用いた場合の物体ぼかしサービスの処理を示したシーケンス図である。It is the sequence diagram which showed the process of the object blurring service at the time of using a process setting table (FIG.13 (b)) for the setting of a real time data processing terminal. 実時間データ処理端末の設定に処理設定テーブル(図13(c))を用いた場合の物体ぼかしサービスの処理を示したシーケンス図である。It is the sequence diagram which showed the process of the object blurring service at the time of using a process setting table (FIG.13 (c)) for the setting of a real time data processing terminal. 分散データ処理端末における画像の表示例を示した図である。It is the figure which showed the example of a display of the image in a distributed data processing terminal. 処理情報管理テーブル設定例である。It is a processing information management table setting example. 画像認識の開始要求の処理の他の例を示したシーケンス図である。It is the sequence diagram which showed the other example of the process of a start request | requirement of image recognition.

●第1の実施形態
〔全体概略〕
以下、図面を用いて、本発明の第1の実施形態の全体の概略について説明する。本実施形態は、エッジコンピューティングを実現する通信システムを開示している。即ち、本実施形態は、サービス提供サーバ8での処理及び画像取得端末2での処理の協同により、画像取得端末2でサービス提供サーバ8から提供されるサービスを実現する発明を開示している。
● First embodiment [Overall outline]
The overall outline of the first embodiment of the present invention will be described below with reference to the drawings. The present embodiment discloses a communication system that realizes edge computing. That is, this embodiment discloses an invention that realizes a service provided from the service providing server 8 at the image acquisition terminal 2 by cooperation of the processing at the service providing server 8 and the processing at the image acquisition terminal 2.

<実施形態の全体構成>
図1は、本実施形態に係る通信システムの概略図である。図1に示されているように、本実施形態の通信システムは、実時間データ処理端末3、近端末データ処理装置5、分散データ処理端末6、集中データ処理サーバ7、サービス提供サーバ8、及び認証サーバ9a,9b,9cによって構築されている。なお、実時間データ処理端末3、近端末データ処理装置5、及び分散データ処理端末6によって、分散処理システム100が構築されている。分散処理システム100は複数存在するが、図1では、図面を簡略化するため、1つだけ記載している。
<Overall Configuration of Embodiment>
FIG. 1 is a schematic diagram of a communication system according to the present embodiment. As shown in FIG. 1, the communication system of this embodiment includes a real-time data processing terminal 3, a near-terminal data processing device 5, a distributed data processing terminal 6, a centralized data processing server 7, a service providing server 8, and It is constructed by authentication servers 9a, 9b, 9c. The real time data processing terminal 3, the near terminal data processing device 5, and the distributed data processing terminal 6 constitute a distributed processing system 100. Although there are a plurality of distributed processing systems 100, only one is shown in FIG. 1 to simplify the drawing.

近端末データ処理装置5は、イントラネット200を介して分散データ処理端末6と通信可能に接続されている。分散データ処理端末6は、インターネット600を介して、集中データ処理サーバ7、サービス提供サーバ8、及び認証サーバ9a,9b,9cと通信可能に接続されている。なお、以下に記載された「認証サーバ9」は、認証サーバ9a,9b,9cの総称である。   The near terminal data processing device 5 is connected to the distributed data processing terminal 6 through the intranet 200 so as to be communicable. The distributed data processing terminal 6 is connected to the centralized data processing server 7, the service providing server 8, and the authentication servers 9a, 9b, and 9c via the Internet 600 so as to be communicable. The “authentication server 9” described below is a general term for the authentication servers 9a, 9b, and 9c.

これらのうち、実時間データ処理端末3は、撮像画像のデータ(以下、「撮像画像データ」という)を得るための実時間処理(リアルタイムの処理)を行なう端末である。実時間データ処理端末3には、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの被写体を撮像する画像センサを備えた撮像ユニット40が着脱自在に接続される。これにより、実時間データ処理端末3は、撮像ユニット40から入力された撮像画像データをデジタル化し、実時間(たとえば1/60秒ごと)で物体(ここでは、顔)の画像を検出する。実時間データ処理端末3は、背景等を含んだ撮像画像のうちの物体部分(ここでは、顔の部分)の領域である部分画像のデータ(以下、「部分画像データ」という)を近端末データ処理装置5に送信する。   Among these, the real-time data processing terminal 3 is a terminal that performs real-time processing (real-time processing) for obtaining captured image data (hereinafter referred to as “captured image data”). The real-time data processing terminal 3 is detachably connected with an imaging unit 40 including an image sensor for imaging a subject such as a complementary metal oxide semiconductor (CMOS) sensor or a charge coupled device (CCD) sensor. As a result, the real-time data processing terminal 3 digitizes the captured image data input from the imaging unit 40 and detects an image of an object (here, a face) in real time (for example, every 1/60 seconds). The real-time data processing terminal 3 uses partial image data (hereinafter referred to as “partial image data”), which is an area of an object part (here, a face part), of a captured image including a background or the like as near-terminal data. Transmit to the processing device 5.

近端末データ処理装置5は、実時間データ処理端末3に最も近いところに配置され、例えばハードウェア的にも密接にデータバスやUSB(Universal Serial Bus)等で1対1に接続されている。近端末データ処理装置5は、実時間データ処理端末3から受信した部分画像データをJPEG(Joint Photographic Experts Group)などの汎用的なフォーマットに符号化した後、イントラネット200を介して分散データ処理端末6に送信する。なお、部分画像データは、集中データ処理サーバ7で照合データと照合する場合の「被照合データ」として扱われる。また、通常、実時間データ処理端末3と近端末データ処理装置5は接続されて一体になっており、ここでは、実時間データ処理端末3と近端末データ処理装置5とで画像取得端末2を構成している。そのため、部分画像データ(被照合データ)をJPEGなどの汎用的なフォーマットに符号化する機能は、実時間データ処理端末3、又は近端末データ処理端末装置5のいずれに備えられていても良い。   The near-terminal data processing device 5 is disposed at a position closest to the real-time data processing terminal 3, and is closely connected in a one-to-one manner by, for example, a data bus or a USB (Universal Serial Bus). The near-terminal data processing device 5 encodes the partial image data received from the real-time data processing terminal 3 into a general-purpose format such as JPEG (Joint Photographic Experts Group), and then the distributed data processing terminal 6 via the intranet 200. Send to. The partial image data is handled as “data to be verified” when the centralized data processing server 7 performs verification with the verification data. Usually, the real-time data processing terminal 3 and the near-terminal data processing device 5 are connected and integrated. Here, the real-time data processing terminal 3 and the near-terminal data processing device 5 connect the image acquisition terminal 2 to each other. It is composed. Therefore, the function of encoding the partial image data (data to be verified) into a general-purpose format such as JPEG may be provided in either the real time data processing terminal 3 or the near terminal data processing terminal device 5.

分散データ処理端末6は、近端末データ処理装置5に比較的近い位置で利用者によって利用され、利用者の各種操作を受け付けることが可能なコンピュータである。分散データ処理端末6は、予め、顔画像の照合が行なわれる場合の「照合データ」を登録して保存している。分散データ処理端末6は、インターネット600を介して、集中データ処理サーバ7に、照合データと被照合データとの照合を要求することができる。この場合、分散データ処理端末6は、近端末データ処理装置5から受信した被照合データ、及び予め自端末(分散データ処理端末6)に登録している照合データも送信する。更に、分散データ処理端末6は、集中データ処理サーバ7から、照合結果を示す照合結果情報を応答として受信することができる。また、分散データ処理端末6は、グラフィックインターフェースを介して照合結果を表示させることができる。   The distributed data processing terminal 6 is a computer that is used by a user at a position relatively close to the near-terminal data processing device 5 and can accept various operations of the user. The distributed data processing terminal 6 registers and stores “collation data” in the case where collation of face images is performed in advance. The distributed data processing terminal 6 can request the central data processing server 7 to collate the collation data with the collated data via the Internet 600. In this case, the distributed data processing terminal 6 also transmits the collated data received from the near terminal data processing device 5 and the collation data registered in advance in the own terminal (distributed data processing terminal 6). Furthermore, the distributed data processing terminal 6 can receive the verification result information indicating the verification result from the centralized data processing server 7 as a response. Further, the distributed data processing terminal 6 can display the collation result via the graphic interface.

集中データ処理サーバ7は、近端末データ処理装置5から比較的遠い位置に設置されており、分散データ処理端末6とはインターネット600等の通信ネットワークを介して通信することができる。集中データ処理サーバ7は、照合要求を示す照合要求情報並びに照合データ及び被照合データを受信した場合、照合データ及び被照合データの照合を行い、類似度を判断する。そして、集中データ処理サーバ7は、分散データ処理端末6に対して、類似度を含んだ照合結果を示す照合結果情報を送信する。   The central data processing server 7 is installed at a position relatively far from the near terminal data processing device 5 and can communicate with the distributed data processing terminal 6 via a communication network such as the Internet 600. When the centralized data processing server 7 receives the collation request information indicating the collation request, the collation data, and the collated data, the collation data and the collated data are collated and the similarity is determined. Then, the centralized data processing server 7 transmits collation result information indicating the collation result including the similarity to the distributed data processing terminal 6.

サービス提供サーバ8は、画像取得端末2に対して、各種サービスを提供するサーバである。   The service providing server 8 is a server that provides various services to the image acquisition terminal 2.

認証サーバ9aは、画像取得端末2(又は利用者)がサービス提供システム8からサービスを受けられる正当な権限があるか否かを判断するために端末ID(又は利用者ID)の認証を行なう。認証サーバ9b,9cも同様である。   The authentication server 9a authenticates the terminal ID (or user ID) in order to determine whether the image acquisition terminal 2 (or user) has a legitimate authority to receive services from the service providing system 8. The same applies to the authentication servers 9b and 9c.

〔ハードウェア構成〕
次に、図2乃至図6を用いて、本実施形態の通信システムの各ハードウェア構成について説明する。
[Hardware configuration]
Next, each hardware configuration of the communication system according to the present embodiment will be described with reference to FIGS.

<実時間データ処理端末のハードウェア構成>
図2は、実時間データ処理端末のハードウェア構成図である。実時間データ処理端末3は、CPU301、ROM302、RAM303、EEPROM304、CMOSセンサ305、加速度・方位センサ306、メディアI/F308、GPS受信部309を備えている。
<Hardware configuration of real-time data processing terminal>
FIG. 2 is a hardware configuration diagram of the real-time data processing terminal. The real-time data processing terminal 3 includes a CPU 301, ROM 302, RAM 303, EEPROM 304, CMOS sensor 305, acceleration / direction sensor 306, media I / F 308, and GPS receiver 309.

これらのうち、CPU301は、実時間データ処理端末3全体の動作を制御する。ROM302は、CPU301の駆動に用いられるプログラムを記憶する。RAM303は、CPU301のワークエリアとして使用される。EEPROM304は、CPU301の制御にしたがって、実時間データ処理端末用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ305は、CPU301の制御に従って被写体(主に撮像ユニット40の死角)を撮像して、撮像画像データを得る。加速度・方位センサ306は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F308は、フラッシュメモリ等の記録メディア307に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部309は、GPS衛星からGPS信号を受信する。   Among these, the CPU 301 controls the operation of the entire real-time data processing terminal 3. The ROM 302 stores a program used for driving the CPU 301. The RAM 303 is used as a work area for the CPU 301. The EEPROM 304 reads or writes various data such as a real-time data processing terminal program under the control of the CPU 301. The CMOS sensor 305 images a subject (mainly the blind spot of the imaging unit 40) under the control of the CPU 301 to obtain captured image data. The acceleration / direction sensor 306 is various sensors such as an electronic magnetic compass, a gyrocompass, and an acceleration sensor that detect geomagnetism. A media I / F 308 controls reading or writing (storage) of data with respect to a recording medium 307 such as a flash memory. The GPS receiver 309 receives GPS signals from GPS satellites.

また、実時間データ処理端末3は、撮像ユニットI/F313、マイク314、スピーカ315、音入出力I/F316、ディスプレイ317、外部機器接続I/F318、及びタッチパネル321を備えている。   The real-time data processing terminal 3 includes an imaging unit I / F 313, a microphone 314, a speaker 315, a sound input / output I / F 316, a display 317, an external device connection I / F 318, and a touch panel 321.

これらのうち、撮像ユニットI/F313は、外付けの撮像ユニット40が接続された場合に、撮像ユニット40の駆動を制御する回路である。マイク314は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F316は、CPU301の制御に従ってマイク314及びスピーカ315との間で音信号の入出力を処理する回路である。ディスプレイ317は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F318は、各種の外部機器を接続するためのインターフェースである。タッチパネル321は、利用者がディスプレイ317を押下することで、実時間データ処理端末3を操作する入力手段の一種である。   Among these, the imaging unit I / F 313 is a circuit that controls driving of the imaging unit 40 when an external imaging unit 40 is connected. The microphone 314 is a kind of built-in sound collecting means for inputting sound. The sound input / output I / F 316 is a circuit that processes input / output of a sound signal between the microphone 314 and the speaker 315 under the control of the CPU 301. The display 317 is a kind of display means such as a liquid crystal display or an organic EL display that displays a subject image, various icons, and the like. The external device connection I / F 318 is an interface for connecting various external devices. The touch panel 321 is a kind of input means for operating the real-time data processing terminal 3 when the user presses the display 317.

また、実時間データ処理端末3は、バスライン310を備えている。バスライン310は、図2に示されているCPU301等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。   The real time data processing terminal 3 includes a bus line 310. The bus line 310 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 301 shown in FIG.

<撮像ユニットのハードウェア構成>
図3は、撮像ユニットのハードウェア構成図である。特に、図3(a)は、撮像ユニット40のうち、単眼の撮像ユニット40aのハードウェア構成図である。図3(b)は、撮像ユニット40のうち、複眼の撮像ユニット40bのハードウェア構成図である。なお、「撮像ユニット40」は、撮像素子の数又はレンズの種類が異なる複数種類の撮像ユニット(撮像ユニット40a、40b等)の総称である。
<Hardware configuration of imaging unit>
FIG. 3 is a hardware configuration diagram of the imaging unit. In particular, FIG. 3A is a hardware configuration diagram of a monocular imaging unit 40 a among the imaging units 40. FIG. 3B is a hardware configuration diagram of the compound-eye imaging unit 40 b in the imaging unit 40. The “imaging unit 40” is a general term for a plurality of types of imaging units (imaging units 40a, 40b, etc.) having different numbers of imaging elements or different types of lenses.

図3(a)に示されているように、撮像ユニット40aは、CMOSやCCD等の撮像素子401a、レンズ402a、及び実時間データ処理端末3の撮像ユニットI/F313に電気的に接続するための接続I/F408aを有している。撮像ユニット40aが実時間データ処理端末3の撮像ユニットI/F313に接続された場合には、撮像素子401aは、撮像ユニットI/F313から接続I/F408aを介して送られて来た撮像制御信号により撮像を行い、接続I/F408aを介して撮像ユニットI/F313に撮像画像データを送信する。   As shown in FIG. 3A, the imaging unit 40a is electrically connected to the imaging element 401a such as CMOS or CCD, the lens 402a, and the imaging unit I / F 313 of the real-time data processing terminal 3. Connection I / F 408a. When the imaging unit 40a is connected to the imaging unit I / F 313 of the real-time data processing terminal 3, the imaging element 401a sends the imaging control signal sent from the imaging unit I / F 313 via the connection I / F 408a. Then, the captured image data is transmitted to the imaging unit I / F 313 via the connection I / F 408a.

また、図3(b)に示されているように、撮像ユニット40bは、CMOSやCCD等の撮像素子401b1,401b2、レンズ402b1,402b2、及び実時間データ処理端末3の撮像ユニットI/F313に電気的に接続するための接続I/F408bを有している。レンズ402b1,402b2は、例えば、魚眼レンズである。撮像ユニット40bが実時間データ処理端末3の撮像ユニットI/F313に接続された場合には、撮像素子401bは、撮像ユニットI/F313から接続I/F408bを介して送られて来た撮像制御信号により撮像を行い、接続I/F408bを介して撮像ユニットI/F313に、複数の撮像画像データを送信する。   Also, as shown in FIG. 3B, the imaging unit 40b includes imaging elements 401b1 and 401b2, such as CMOS and CCD, lenses 402b1 and 402b2, and the imaging unit I / F 313 of the real-time data processing terminal 3. A connection I / F 408b for electrical connection is provided. The lenses 402b1 and 402b2 are, for example, fisheye lenses. When the imaging unit 40b is connected to the imaging unit I / F 313 of the real-time data processing terminal 3, the imaging element 401b sends an imaging control signal sent from the imaging unit I / F 313 via the connection I / F 408b. In this manner, the image is captured, and a plurality of captured image data is transmitted to the imaging unit I / F 313 via the connection I / F 408b.

図3(a)に示されている撮像ユニット40aは、一般の平面画像を得るが、図3(b)に示されている撮像ユニット40bは、全天球画像を得ることができる。ここで、図4を用いて、撮像ユニット40bで撮像された画像から正距円筒射影画像ECが作成されるまでの処理の概略を説明する。なお、図4(a)は撮像ユニット40bで撮像されることで生成された半球画像(前側)、図4(b)は撮像ユニット40bで撮像されることで生成された半球画像(後側)、図4(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。   The imaging unit 40a shown in FIG. 3 (a) obtains a general planar image, but the imaging unit 40b shown in FIG. 3 (b) can obtain an omnidirectional image. Here, with reference to FIG. 4, an outline of processing until an equirectangular projection image EC is created from an image captured by the imaging unit 40 b will be described. 4A is a hemispherical image generated by imaging with the imaging unit 40b (front side), and FIG. 4B is a hemispherical image generated by imaging with the imaging unit 40b (rear side). FIG. 4C is a diagram showing an image represented by an equirectangular projection (hereinafter referred to as an “equal-distance cylindrical projection image”).

図4(a)に示されているように、撮像素子401b1によって得られた画像は、レンズ402b1によって湾曲した半球画像(前側)となる。また、図4(b)に示されているように、撮像素子403bによって得られた画像は、レンズ402b2によって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは合成され、図4(c)に示されているように、正距円筒射影画像ECが作成される。   As shown in FIG. 4A, the image obtained by the image sensor 401b1 is a hemispherical image (front side) curved by the lens 402b1. Also, as shown in FIG. 4B, the image obtained by the image sensor 403b is a hemispherical image (rear side) curved by the lens 402b2. Then, the hemispherical image (front side) and the hemispherical image inverted by 180 degrees (rear side) are synthesized, and an equirectangular projection image EC is created as shown in FIG.

<近端末データ処理装置、分散データ処理端末のハードウェア構成>
図5は、近端末データ処理装置又は分散データ処理端末のハードウェア構成図である。ここでは、近端末データ処理装置5と分散データ処理端末6とは、同じハードウェア構成を備えている場合を示しているため、近端末データ処理装置5について説明し、分散データ処理端末6の説明は省略する。
<Hardware configuration of near terminal data processing device and distributed data processing terminal>
FIG. 5 is a hardware configuration diagram of the near-terminal data processing device or the distributed data processing terminal. Here, since the near terminal data processing device 5 and the distributed data processing terminal 6 are shown to have the same hardware configuration, the near terminal data processing device 5 will be described, and the distributed data processing terminal 6 will be described. Is omitted.

図5に示されているように、近端末データ処理装置5は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、加速度・方位センサ506、メディアI/F508、GPS受信部509を備えている。   As shown in FIG. 5, the near-terminal data processing device 5 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM 504, a CMOS sensor 505, an acceleration / direction sensor 506, a media I / F 508, and a GPS receiving unit 509.

これらのうち、CPU501は、近端末データ処理装置5全体の動作を制御する。ROM502は、CPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、近端末データ処理装置用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ505は、CPU501の制御に従って被写体(主に近端末データ処理装置5を操作するユーザの自画像)を撮像し、撮像画像データを得る。加速度・方位センサ506は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F508は、フラッシュメモリ等の記録メディア507に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部509は、GPS衛星からGPS信号を受信する。   Among these, the CPU 501 controls the operation of the entire near-terminal data processing device 5. The ROM 502 stores a program used for driving the CPU 501. The RAM 503 is used as a work area for the CPU 501. The EEPROM 504 reads or writes various data such as the near-terminal data processing device program under the control of the CPU 501. The CMOS sensor 505 captures a subject (mainly a self-portrait of a user who operates the near-terminal data processing device 5) according to the control of the CPU 501, and obtains captured image data. The acceleration / direction sensor 506 is various sensors such as an electronic magnetic compass, a gyrocompass, and an acceleration sensor that detect geomagnetism. A media I / F 508 controls reading or writing (storage) of data with respect to a recording medium 507 such as a flash memory. The GPS receiver 509 receives GPS signals from GPS satellites.

また、近端末データ処理装置5は、遠距離通信回路511、遠距離通信回路511のアンテナ511a、CMOSセンサ512、撮像素子I/F513、マイク514、スピーカ515、音入出力I/F516、ディスプレイ517、外部機器接続I/F518、近距離通信回路519、近距離通信回路519のアンテナ519a、及びタッチパネル521を備えている。   The near-terminal data processing device 5 includes a long-distance communication circuit 511, an antenna 511a of the long-distance communication circuit 511, a CMOS sensor 512, an image sensor I / F 513, a microphone 514, a speaker 515, a sound input / output I / F 516, and a display 517. , An external device connection I / F 518, a near field communication circuit 519, an antenna 519 a of the near field communication circuit 519, and a touch panel 521.

これらのうち、遠距離通信回路511は、イントラネット200を介して、他の機器と通信する回路である。CMOSセンサ512は、CPU501の制御に従って被写体を撮像して、撮像画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F513は、CMOSセンサ512の駆動を制御する回路である。マイク514は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F516は、CPU501の制御に従ってマイク514及びスピーカ515との間で音信号の入出力を処理する回路である。ディスプレイ517は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F518は、各種の外部機器を接続するためのインターフェースである。近距離通信回路519は、NFC(Near Field radio Communication)やBluetooth(登録商標)等の通信回路である。タッチパネル521は、利用者がディスプレイ517を押下することで、近端末データ処理装置5を操作する入力手段の一種である。   Among these, the long-distance communication circuit 511 is a circuit that communicates with other devices via the intranet 200. The CMOS sensor 512 is a type of built-in imaging means that captures an image of a subject under the control of the CPU 501 and obtains captured image data. The image sensor I / F 513 is a circuit that controls driving of the CMOS sensor 512. The microphone 514 is a kind of built-in sound collecting means for inputting sound. The sound input / output I / F 516 is a circuit that processes input / output of a sound signal between the microphone 514 and the speaker 515 under the control of the CPU 501. The display 517 is a kind of display means such as a liquid crystal display or an organic EL display that displays a subject image, various icons, and the like. The external device connection I / F 518 is an interface for connecting various external devices. The short-range communication circuit 519 is a communication circuit such as NFC (Near Field Radio Communication) or Bluetooth (registered trademark). The touch panel 521 is a kind of input means for operating the near-terminal data processing device 5 when the user presses the display 517.

また、近端末データ処理装置5は、バスライン510を備えている。バスライン510は、図5に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。   The near terminal data processing device 5 includes a bus line 510. The bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501 shown in FIG.

<集中データ処理サーバ、サービス提供サーバ、認証サーバのハードウェア構成>
図6は、集中データ処理サーバ、サービス提供サーバ、又は認証サーバのハードウェア構成図である。ここでは、集中データ処理サーバ7、サービス提供サーバ8、及び認証サーバ9は、同じハードウェア構成を備えている場合を示しているため、集中データ処理サーバ7について説明し、サービス提供サーバ8及び認証サーバ9の説明は省略する。
<Hardware configuration of centralized data processing server, service providing server, and authentication server>
FIG. 6 is a hardware configuration diagram of a centralized data processing server, a service providing server, or an authentication server. Here, since the central data processing server 7, the service providing server 8, and the authentication server 9 are shown to have the same hardware configuration, the central data processing server 7 will be described, and the service providing server 8 and the authentication server 9 will be described. Description of the server 9 is omitted.

図6は、集中データ処理サーバのハードウェア構成図である。集中データ処理サーバ7は、コンピュータによって構築されており、図6に示されているように、CPU701、ROM702、RAM703、HD704、HDD(Hard Disk Drive)705、記録メディア706、メディアI/F707、ディスプレイ708、ネットワークI/F709、キーボード711、マウス712、CD−RWやDVD、Blu‐rayの記憶媒体に対応したドライブ714、及び、バスライン710を備えている。なお、集中データ処理サーバ7は、サーバとして機能するため、キーボード711やマウス712等の入力装置や、ディスプレイ708等の出力装置はなくてもよい。   FIG. 6 is a hardware configuration diagram of the centralized data processing server. The central data processing server 7 is constructed by a computer, and as shown in FIG. 6, a CPU 701, ROM 702, RAM 703, HD 704, HDD (Hard Disk Drive) 705, recording medium 706, media I / F 707, display 708, a network I / F 709, a keyboard 711, a mouse 712, a drive 714 corresponding to a CD-RW, DVD, Blu-ray storage medium, and a bus line 710. Since the central data processing server 7 functions as a server, there is no need for input devices such as a keyboard 711 and a mouse 712 and output devices such as a display 708.

これらのうち、CPU701は、集中データ処理サーバ7全体の動作を制御する。ROM702は、CPU701の駆動に用いられるプログラムを記憶する。RAM703は、CPU701のワークエリアとして使用される。HD704は、プログラム等の各種データを記憶する。HDD705は、CPU701の制御にしたがってHD704に対する各種データの読み出し又は書き込みを制御する。メディアI/F707は、フラッシュメモリ等の記録メディア706に対するデータの読み出し又は書き込み(記憶)を制御する。ディスプレイ708は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。ネットワークI/F709は、インターネット600を利用してデータ通信をするためのインターフェースである。キーボード711は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。マウス712は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。ドライブ714は、着脱可能な記録媒体に対する各種データの読み出し等を制御する。   Among these, the CPU 701 controls the operation of the centralized data processing server 7 as a whole. The ROM 702 stores a program used for driving the CPU 701. The RAM 703 is used as a work area for the CPU 701. The HD 704 stores various data such as programs. The HDD 705 controls reading or writing of various data with respect to the HD 704 according to the control of the CPU 701. The media I / F 707 controls reading or writing (storage) of data with respect to a recording medium 706 such as a flash memory. The display 708 displays various information such as a cursor, menu, window, character, or image. A network I / F 709 is an interface for performing data communication using the Internet 600. The keyboard 711 is a kind of input means having a plurality of keys for inputting characters, numerical values, various instructions, and the like. The mouse 712 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The drive 714 controls reading of various data with respect to a removable recording medium.

また、集中データ処理サーバ7は、バスライン710を備えている。バスライン710は、図6に示されているCPU701等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。   The centralized data processing server 7 includes a bus line 710. The bus line 710 is an address bus, a data bus, or the like for electrically connecting the components such as the CPU 701 shown in FIG.

〔ソフトウェア構成〕
図7は、画像取得端末における実時間データ処理端末及び近端末データ処理装置のソフトウェア構成図である。
[Software configuration]
FIG. 7 is a software configuration diagram of the real-time data processing terminal and the near-terminal data processing device in the image acquisition terminal.

図7に示されているように、実時間データ処理端末3は、OS300、及び画像認識アプリケーション(以下、「アプリケーション」は「アプリ」と示す)AP1を有している。画像認識アプリAP1は、実時間データ処理端末3のRAM303の作業上で動作する。このうち、OS300は、基本的な機能を提供し、実時間データ処理端末3全体を管理する基本ソフトウェアである。画像認識アプリAP1は、撮像画像から人物や動物等の顔を認識するためのアプリである。   As shown in FIG. 7, the real-time data processing terminal 3 has an OS 300 and an image recognition application (hereinafter, “application” is indicated as “application”) AP1. The image recognition application AP1 operates on the work of the RAM 303 of the real-time data processing terminal 3. Among these, the OS 300 is basic software that provides basic functions and manages the entire real-time data processing terminal 3. The image recognition application AP1 is an application for recognizing a face such as a person or an animal from a captured image.

また、近端末データ処理装置5は、OS500、及び通信アプリAP2を有している。通信アプリAP2は、近端末データ処理装置5のRAM503の作業上で動作する。このうち、OS500は、基本的な機能を提供し、近端末データ処理装置5全体を管理する基本ソフトウェアである。通信アプリAP2は、分散データ処理端末6等の他の端末(装置)と通信を行うためのアプリである。   The near terminal data processing device 5 has an OS 500 and a communication application AP2. The communication application AP2 operates on the work of the RAM 503 of the near-terminal data processing device 5. Among these, the OS 500 is basic software that provides basic functions and manages the entire near-terminal data processing device 5. The communication application AP2 is an application for communicating with other terminals (devices) such as the distributed data processing terminal 6.

このように、画像取得端末2では、実時間データ処理端末3が画像認識を行うのに対して、近端末データ処理装置5がイントラネット200を介して分散データ処理端末6と通信を行なうことで、分散処理を行なうことができる。   Thus, in the image acquisition terminal 2, the real-time data processing terminal 3 performs image recognition, whereas the near-terminal data processing device 5 communicates with the distributed data processing terminal 6 via the intranet 200. Distributed processing can be performed.

なお、実時間データ処理端末3及び近端末データ処理装置5は、OSだけでなく、ドライバ、ソフトウェア開発キット(SDK)、またはアプリケーションプログラミングインタフェース(API)等の各ソフトウェアを搭載している。実時間データ処理端末3及び近端末データ処理装置5は、例えば、それぞれが異なるOSを搭載している等、搭載されている各ソフトウェアは異なっていてもよい。   Note that the real-time data processing terminal 3 and the near-terminal data processing device 5 include not only an OS but also software such as a driver, a software development kit (SDK), or an application programming interface (API). The real-time data processing terminal 3 and the near-terminal data processing device 5 may have different installed software, for example, each having a different OS.

続いて、図面を用いて、本発明の一実施形態の機能構成及び処理について説明する。   Next, the functional configuration and processing of an embodiment of the present invention will be described using the drawings.

〔実施形態の機能構成〕
まず、図8乃至図17を用いて、本実施形態に係る通信システムを構成する端末、装置、及びサーバの各機能構成について説明する。図8は、実施形態に係る通信システムの機能ブロック図である。図8は、特に画像取得端末2の機能ブロックを示している。
[Functional Configuration of Embodiment]
First, the functional configurations of the terminal, the device, and the server that constitute the communication system according to the present embodiment will be described with reference to FIGS. FIG. 8 is a functional block diagram of the communication system according to the embodiment. FIG. 8 particularly shows functional blocks of the image acquisition terminal 2.

<実時間データ処理端末の機能構成>
図8に示されているように、実時間データ処理端末3は、判断部33、画像処理部34、物体検出部35、イベント生成部36、表示制御部37、接続部38、記憶・読出部39、ぼかし処理部47、及び通信部48を有している。これら各部は、図2に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開されたプログラムに従ったCPU301からの命令によって、動作することで実現される機能又は手段である。
<Functional configuration of real-time data processing terminal>
As shown in FIG. 8, the real-time data processing terminal 3 includes a determination unit 33, an image processing unit 34, an object detection unit 35, an event generation unit 36, a display control unit 37, a connection unit 38, and a storage / reading unit. 39, a blur processing unit 47, and a communication unit 48. Each of these units is a function or means realized by any one of the constituent elements shown in FIG. 2 operating according to a command from the CPU 301 according to a program expanded from the EEPROM 304 onto the RAM 303.

また、実時間データ処理端末3は、図2に示されているROM302、RAM303、及びEEPROM304によって構築される記憶部3000を有している。記憶部3000には、後述の形状モデルデータが記憶されている。更に、記憶部3000には、撮像素子情報管理DB3001、サイクル値管理DB3002、画像取得プログラム管理DB3003、合成処理プログラム管理DB3004、歪み補正プログラム管理DB3005、及びサービスプログラム管理DB3006が構築されている。   The real-time data processing terminal 3 has a storage unit 3000 constructed by the ROM 302, the RAM 303, and the EEPROM 304 shown in FIG. The storage unit 3000 stores shape model data described later. Further, in the storage unit 3000, an image sensor information management DB 3001, a cycle value management DB 3002, an image acquisition program management DB 3003, a composition processing program management DB 3004, a distortion correction program management DB 3005, and a service program management DB 3006 are constructed.

撮像素子情報管理DB3001は、後述の撮像素子情報管理テーブルによって構成されている。サイクル値管理DB3002は、後述のサイクル値管理テーブルによって構成されている。画像取得プログラム管理DB3003は、後述の画像取得プログラム管理テーブルによって構成されている。合成処理プログラム管理DB3004は、後述の合成処理プログラム管理テーブルによって構成されている。歪み補正プログラム管理DB3005は、後述の歪み補正プログラム管理テーブルによって構成されている。サービスプログラム管理DB3006は、後述のサービスプログラム管理テーブルによって構成されている。   The image sensor information management DB 3001 is configured by an image sensor information management table described later. The cycle value management DB 3002 is configured by a cycle value management table described later. The image acquisition program management DB 3003 is configured by an image acquisition program management table described later. The synthesis processing program management DB 3004 is configured by a synthesis processing program management table described later. The distortion correction program management DB 3005 is configured by a distortion correction program management table described later. The service program management DB 3006 is configured by a service program management table described later.

(撮像素子情報管理テーブル)
図10(a)は、撮像素子情報管理テーブルを示す概念図である。この撮像素子情報管理テーブルでは、撮像ユニット40の型番、及び撮像ユニット40が有する撮像素子の数、及びこの撮像素子に使われるレンズの種類が関連付けて管理されている。なお、型番は、撮像素子の数及びこの撮像素子に使われるレンズの種類の違いに応じた撮像ユニットの種類を示す種類情報の一例である。また、撮像素子数や、レンズの種類が特定できるものであれば、型番に限らず、製品番号、バーコードなどの識別情報であってもよい。
(Image sensor information management table)
FIG. 10A is a conceptual diagram showing an image sensor information management table. In the imaging element information management table, the model number of the imaging unit 40, the number of imaging elements included in the imaging unit 40, and the type of lens used in the imaging element are managed in association with each other. The model number is an example of type information indicating the type of the imaging unit corresponding to the number of imaging elements and the difference in the type of lens used in the imaging element. In addition, as long as the number of imaging elements and the type of lens can be specified, identification information such as a product number or a bar code is not limited to a model number.

(サイクル値管理テーブル)
図10(b)は、サイクル値管理テーブルを示す概念図である。このサイクル値管理テーブルでは、撮像ユニット40が有する撮像素子の数、及び後述の物体認識の処理のサイクル値(Frames Per Second)が関連付けて管理されている。
(Cycle value management table)
FIG. 10B is a conceptual diagram showing a cycle value management table. In this cycle value management table, the number of image sensors included in the imaging unit 40 and a cycle value (Frames Per Second) of an object recognition process described later are managed in association with each other.

図11に示されている各テーブルは、各プログラムが、実時間データ処理端末3にインストールされているか否かを管理するためのテーブルである。   Each table shown in FIG. 11 is a table for managing whether or not each program is installed in the real-time data processing terminal 3.

(画像取得プログラム管理テーブル)
図11(a)は、画像取得プログラム管理テーブルを示す概念図である。この画像取得プログラム管理テーブルでは、撮像ユニット40が有する撮像素子の数、及び画像取得プログラム(又はこの名称)が関連付けて管理されている。例えば、撮像素子の数「1」の場合の画像取得プログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgC01 (1系統の画像取得)」が関連付けて管理されている。撮像素子の数「2」の場合の画像取得プログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgC02 (2系統の画像取得)」が関連付けて管理されている。
(Image acquisition program management table)
FIG. 11A is a conceptual diagram showing an image acquisition program management table. In the image acquisition program management table, the number of image pickup elements included in the image pickup unit 40 and the image acquisition program (or this name) are managed in association with each other. For example, when the image acquisition program for the number of image sensors “1” is installed in the real-time data processing terminal 3, the program “ProgC01 (one system image acquisition)” is associated and managed. When the image acquisition program for the number of image pickup devices “2” is installed in the real-time data processing terminal 3, the program “ProgC02 (2 systems of image acquisition)” is associated and managed.

(合成処理プログラム管理テーブル)
図11(b)は、合成処理プログラム管理テーブルを示す概念図である。この合成処理プログラム管理テーブルでは、撮像ユニット40が有する撮像素子の数、及び合成処理プログラムの名称が関連付けて管理されている。
(Synthesis processing program management table)
FIG. 11B is a conceptual diagram showing a synthesis processing program management table. In the synthesis processing program management table, the number of image sensors included in the imaging unit 40 and the name of the synthesis processing program are managed in association with each other.

(歪み補正プログラム管理テーブル)
図11(c)は、歪み補正プログラム管理テーブルを示す概念図である。この歪み補正プログラム管理テーブルでは、撮像ユニット40が有するレンズの種類、及び歪み補正プログラム(又はこの名称)が関連付けて管理されている。例えば、レンズの種類「広角」の場合の歪み補正プログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgW01(広角歪み補正)」が関連付けて管理されている。レンズの種類「魚眼」の場合の歪み補正プログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgW02(魚眼歪み補正)」が関連付けて管理されている。
(Distortion correction program management table)
FIG. 11C is a conceptual diagram showing a distortion correction program management table. In this distortion correction program management table, the lens type of the imaging unit 40 and the distortion correction program (or this name) are managed in association with each other. For example, when a distortion correction program for the lens type “wide angle” is installed in the real-time data processing terminal 3, the program “ProgW01 (wide angle distortion correction)” is associated and managed. When the distortion correction program for the lens type “fisheye” is installed in the real-time data processing terminal 3, the program “ProgW02 (fisheye distortion correction)” is associated and managed.

(サービスプログラム管理テーブル)
図11(d)は、サービスプログラム管理テーブルを示す概念図である。このサービスプログラム管理テーブルでは、認証サーバ9を識別するための認証サーバID、及び画像取得端末2が提供されるサービスを実行するためのサービスプログラムの名称が関連付けて管理されている。例えば、認証サーバID「a01」の場合のサービスプログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgD01 (物体認識)」が関連付けて管理されている。
(Service program management table)
FIG. 11D is a conceptual diagram showing a service program management table. In this service program management table, the authentication server ID for identifying the authentication server 9 and the name of the service program for executing the service provided by the image acquisition terminal 2 are managed in association with each other. For example, when the service program for the authentication server ID “a01” is installed in the real-time data processing terminal 3, the program “ProgD01 (object recognition)” is associated and managed.

また、認証サーバID「a02」の場合のサービスプログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgD02 (物体ぼかし)」が関連付けて管理されている。物体ぼかしのサービス内容は、集中データ処理サーバ7が物体ぼかし後の画像データを保存することであるが、更に、物体ばかしの処理が、集中データ処理サーバ7側で行われる場合(S108参照)と、実時間データ処理端末3で行われる場合(S125参照)がある。   When the service program for the authentication server ID “a02” is installed in the real-time data processing terminal 3, the program “ProgD02 (object blurring)” is associated and managed. The object blurring service content is that the centralized data processing server 7 stores the image data after the blurring of the object. Further, when the processing of the object blurring is performed on the centralized data processing server 7 side (see S108). In some cases, the processing is performed by the real-time data processing terminal 3 (see S125).

(実時間データ処理端末の各機能構成)
次に、図8を用いて、実時間データ処理端末3の各機能構成について更に詳細に説明する。
(Functional configuration of real-time data processing terminal)
Next, each functional configuration of the real-time data processing terminal 3 will be described in more detail with reference to FIG.

実時間データ処理端末3の判断部33は、CPU301の処理によって実現され、各種判断を行なう。例えば、判断部33は、撮像ユニット40から送られて来る型番に基づき、撮像素子情報管理DB3001を参考にして、撮像素子の数を判断する。   The determination unit 33 of the real-time data processing terminal 3 is realized by the processing of the CPU 301 and makes various determinations. For example, the determination unit 33 determines the number of imaging elements based on the model number sent from the imaging unit 40 with reference to the imaging element information management DB 3001.

画像処理部34は、CPU301の処理によって実現され、図11に示されている各プログラム(画像取得プログラム、画像合成プログラム、歪み補正プログラム、及びサービスプログラム)の実行により、各種画像処理を行なう。具体的には、画像処理部34は、取得するために認証が不要な第1のプログラム(例えば、画像取得プログラム、画像合成プログラム、及び歪み補正プログラム)を実行することで、画像データに対して第1の画像処理(例えば、画像取得、画像合成、歪み補正)を行なう。また、画像処理部34は、取得するために認証が必要な第2のプログラム(例えば、サービスプログラム)を実行することで、画像データに対して第2の画像処理(例えば、物体認識処理、物体ぼかし処理)を行なう。   The image processing unit 34 is realized by the processing of the CPU 301, and performs various types of image processing by executing the respective programs (image acquisition program, image synthesis program, distortion correction program, and service program) shown in FIG. Specifically, the image processing unit 34 executes a first program (for example, an image acquisition program, an image synthesis program, and a distortion correction program) that does not require authentication in order to acquire the image data. First image processing (for example, image acquisition, image synthesis, distortion correction) is performed. In addition, the image processing unit 34 executes a second program (for example, a service program) that requires authentication in order to acquire the second image processing (for example, object recognition processing, object (Blur processing).

物体検出部35は、CPU301の処理によって実現され、撮像ユニット40から接続部38を介して取得された撮像画像のデータにおいて、顔などの予め決められた特定の物体の候補となる特徴点を検出し、顔などの予め定められた特定の物体の形状モデルを示す形状モデルデータを参照して、撮像画像の中の物体の位置を検出することで、撮像画像から顔などの物体の領域の矩形画像(以下、「物体領域矩形画像」という)を検出(又は抽出)する。   The object detection unit 35 is realized by the processing of the CPU 301, and detects feature points that are candidates for a predetermined specific object such as a face in the captured image data acquired from the imaging unit 40 via the connection unit 38. Then, by referring to shape model data indicating a predetermined shape model of a specific object such as a face, and detecting the position of the object in the captured image, the rectangle of the region of the object such as the face from the captured image An image (hereinafter referred to as “object region rectangular image”) is detected (or extracted).

イベント生成部36は、CPU301の処理によって実現され、画像処理部34で物体の位置が検出された旨の検出情報(イベント情報)を生成する。   The event generation unit 36 is realized by the processing of the CPU 301, and generates detection information (event information) indicating that the position of the object has been detected by the image processing unit 34.

表示制御部37は、CPU301の処理によって実現され、表示手段の一例であるディスプレイ317に各種画面を表示させる。   The display control unit 37 is realized by the processing of the CPU 301 and displays various screens on the display 317 which is an example of a display unit.

接続部38は、撮像ユニットI/F313、及びCPU301の処理によって実現され、撮像ユニット40を実時間データ処理端末3に機械的及び電気的に接続するためのインターフェースである。   The connection unit 38 is realized by processing of the imaging unit I / F 313 and the CPU 301, and is an interface for mechanically and electrically connecting the imaging unit 40 to the real-time data processing terminal 3.

記憶・読出部39は、CPU301の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。   The storage / reading unit 39 is realized by processing of the CPU 301, and stores various data (or information) in the storage unit 3000 and reads out various data (or information) from the storage unit 3000.

ぼかし処理部47は、CPU301の処理によって実現され、送受信部41で受信した画像の一部または全部に対してぼかしをかける処理を実行する。   The blur processing unit 47 is realized by the processing of the CPU 301 and executes a process of blurring part or all of the image received by the transmission / reception unit 41.

通信部48は、外部機器接続I/F318、及びCPU301の処理によって実現され、1対1の通信を介して近端末データ処理装置5の後述の通信部58と各種データ(または情報)の送受信を行う。なお、この通信は有線だけでなく無線であってもよい。   The communication unit 48 is realized by processing of the external device connection I / F 318 and the CPU 301, and transmits / receives various data (or information) to / from a communication unit 58 described later of the near-terminal data processing device 5 through one-to-one communication. Do. Note that this communication may be wireless as well as wired.

<近端末データ処理装置の機能構成>
図8に示されているように、近端末データ処理装置5は、送受信部51、データ検出部56、表示制御部57、通信部58、及び記憶・読出部59を有している。これら各部は、図5に示されている各構成要素のいずれかが、近端末データ処理装置5において、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって、動作することで実現される機能又は手段である。
<Functional configuration of near-terminal data processing device>
As shown in FIG. 8, the near-terminal data processing device 5 includes a transmission / reception unit 51, a data detection unit 56, a display control unit 57, a communication unit 58, and a storage / readout unit 59. Each of these components is realized by any one of the constituent elements shown in FIG. 5 operating in the near-terminal data processing device 5 according to a command from the CPU 501 according to a program expanded from the EEPROM 504 to the RAM 503. Function or means to be performed.

また、近端末データ処理装置5は、図5に示されているROM502、RAM503、及びEEPROM504によって構築される記憶部5000を有している。   Further, the near-terminal data processing device 5 has a storage unit 5000 constructed by the ROM 502, the RAM 503, and the EEPROM 504 shown in FIG.

(近端末データ処理装置の各機能構成)
次に、図8を用いて、近端末データ処理装置5の各機能構成について更に詳細に説明する。
(Each functional configuration of near terminal data processing device)
Next, each functional configuration of the near-terminal data processing device 5 will be described in more detail with reference to FIG.

近端末データ処理装置5の送受信部51は、遠距離通信回路511、アンテナ511a、及びCPU501の処理によって実現され、通信ネットワーク(ここでは、イントラネット200)を介して、分散データ処理端末6との間で各種データ(または情報)の送受信を行う。   The transmission / reception unit 51 of the near-terminal data processing device 5 is realized by the processing of the long-distance communication circuit 511, the antenna 511a, and the CPU 501, and is connected to the distributed data processing terminal 6 via the communication network (here, the intranet 200). Send and receive various data (or information).

データ検出部56は、CPU501の処理によって実現され、実時間データ処理端末3からのデータを受信するべきイベントが発生しているか否か、データの受信が完了したか否かを検出する。また、データ検出部56は、分散データ処理端末6から送られて来た認証サーバIDの内容に基づいてサービス内容を特定する。   The data detection unit 56 is realized by the processing of the CPU 501, and detects whether an event for receiving data from the real-time data processing terminal 3 has occurred, or whether reception of data has been completed. In addition, the data detection unit 56 identifies the service content based on the content of the authentication server ID sent from the distributed data processing terminal 6.

表示制御部57は、CPU501の処理によって実現され、表示手段の一例であるディスプレイ517に各種画面を表示させる。   The display control unit 57 is realized by the processing of the CPU 501 and displays various screens on the display 517 which is an example of a display unit.

通信部58は、外部機器接続I/F518、及びCPU501の処理によって実現され、1対1の通信を介して実時間データ処理端末3の通信部48と各種データ(または情報)の送受信を行う。なお、この通信は有線だけでなく、無線であってもよい。   The communication unit 58 is realized by the processing of the external device connection I / F 518 and the CPU 501, and transmits / receives various data (or information) to / from the communication unit 48 of the real-time data processing terminal 3 through one-to-one communication. Note that this communication may be wireless as well as wired.

記憶・読出部59は、CPU501の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。   The storage / reading unit 59 is realized by processing of the CPU 501, and stores various data (or information) in the storage unit 5000 and reads various data (or information) from the storage unit 5000.

<分散データ処理端末の機能構成>
図9に示されているように、分散データ処理端末6は、送受信部61、受付部62、判断部63、表示制御部67、及び記憶・読出部69を有している。これら各部は、図5に示されている各構成要素のいずれかが、分散データ処理端末6において、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって、動作することで実現される機能又は手段である。
<Functional configuration of distributed data processing terminal>
As illustrated in FIG. 9, the distributed data processing terminal 6 includes a transmission / reception unit 61, a reception unit 62, a determination unit 63, a display control unit 67, and a storage / readout unit 69. Each of these units is realized by any one of the constituent elements shown in FIG. 5 operating in the distributed data processing terminal 6 according to a command from the CPU 501 according to a program expanded from the EEPROM 504 to the RAM 503. Function or means.

また、分散データ処理端末6は、図5に示されているROM502、RAM503、及びEEPROM504によって構築される記憶部6000を有している。この記憶部6000には、照合データが記憶されている。更に、記憶部6000には、照合データ管理DB6001が構築されている。照合データ管理DB6001は、後述の照合データ管理テーブルによって構成されている。なお、照合データは、分散データ処理端末6以外の他のデータ管理サーバ等で記憶してもよい。   The distributed data processing terminal 6 has a storage unit 6000 constructed by the ROM 502, the RAM 503, and the EEPROM 504 shown in FIG. The storage unit 6000 stores collation data. Furthermore, a collation data management DB 6001 is constructed in the storage unit 6000. The collation data management DB 6001 is configured by a collation data management table described later. The collation data may be stored in a data management server other than the distributed data processing terminal 6.

(照合データ管理テーブル)
図13は、照合データ管理テーブルを示す概念図である。この照合データ管理テーブルでは、照合データのファイル名を示す画像ファイル、及び照合画像で示される人物の名前が関連付けて管理されている。
(Verification data management table)
FIG. 13 is a conceptual diagram showing a collation data management table. In this collation data management table, an image file indicating the collation data file name and the name of the person indicated by the collation image are managed in association with each other.

(分散データ処理端末の各機能構成)
分散データ処理端末6の送受信部61は、分散データ処理端末6における、遠距離通信回路511、アンテナ511a、及びCPU501の処理によって実現され、通信ネットワーク(ここでは、インターネット600)を介して、集中データ処理サーバ7と各種データ(または情報)の送受信を行う。例えば、送受信部61は、照合データと被照合データとの照合要求を集中データ処理サーバ7に対して送信したり、集中データ処理サーバ7から送られて来た照合結果に対する処理を行ったりする。
(Functional configuration of distributed data processing terminal)
The transmission / reception unit 61 of the distributed data processing terminal 6 is realized by the processing of the long-distance communication circuit 511, the antenna 511a, and the CPU 501 in the distributed data processing terminal 6, and centralized data via a communication network (here, the Internet 600). Various data (or information) is transmitted / received to / from the processing server 7. For example, the transmission / reception unit 61 transmits a collation request between the collation data and the data to be collated to the central data processing server 7 or performs a process on the collation result sent from the central data processing server 7.

受付部62は、分散データ処理端末6における、タッチパネル521、及びCPU501の処理によって実現され、利用者の各種操作を受け付ける。   The accepting unit 62 is realized by processing of the touch panel 521 and the CPU 501 in the distributed data processing terminal 6 and accepts various operations of the user.

判断部63は、分散データ処理端末6におけるCPU501の処理によって実現され、各種判断を行なう。   The determination unit 63 is realized by the processing of the CPU 501 in the distributed data processing terminal 6 and makes various determinations.

表示制御部67は、分散データ処理端末6におけるCPU501の処理によって実現され、表示手段の一例であるディスプレイ517に各種画面を表示させる。   The display control unit 67 is realized by the processing of the CPU 501 in the distributed data processing terminal 6 and displays various screens on the display 517 which is an example of a display unit.

記憶・読出部69は、分散データ処理端末6におけるCPU501の処理によって実現され、記憶部6000に各種データ(または情報)を記憶したり、記憶部6000から各種データ(または情報)を読み出したりする。例えば、記憶・読出部69は、受付部62で受け付けられた登録要求により、照合データ(ここでは、顔画像データ)を記憶部6000に記憶して登録させる。   The storage / reading unit 69 is realized by processing of the CPU 501 in the distributed data processing terminal 6, and stores various data (or information) in the storage unit 6000 and reads various data (or information) from the storage unit 6000. For example, the storage / reading unit 69 stores the collation data (here, the face image data) in the storage unit 6000 and registers it according to the registration request received by the receiving unit 62.

<集中データ処理サーバの機能構成>
図9に示されているように、集中データ処理サーバ7は、送受信部71、受付部72、特徴量生成部74、照合部75、物体検出部76、ぼかし処理部77、及び記憶・読出部79を有している。これら各部は、図6に示されている各構成要素のいずれかが、分散データ処理端末6において、HD704からRAM703上に展開されたプログラムに従ったCPU701からの命令によって、動作することで実現される機能又は手段である。
<Functional configuration of centralized data processing server>
As shown in FIG. 9, the centralized data processing server 7 includes a transmission / reception unit 71, a reception unit 72, a feature amount generation unit 74, a collation unit 75, an object detection unit 76, a blur processing unit 77, and a storage / reading unit. 79. Each of these units is realized by any one of the components shown in FIG. 6 operating in the distributed data processing terminal 6 according to a command from the CPU 701 according to a program expanded from the HD 704 to the RAM 703. Function or means.

また、集中データ処理サーバ7は、図6に示されているROM702、RAM703、及びHD704によって構築される記憶部7000を有している。記憶部7000には、処理情報管理DB7001が構築されている。処理情報管理DB7001には、後述の処理情報管理テーブルによって構成されている。また、記憶部7000には、後述の照合側の特徴量データが記憶されている。   The central data processing server 7 has a storage unit 7000 constructed by the ROM 702, the RAM 703, and the HD 704 shown in FIG. In the storage unit 7000, a processing information management DB 7001 is constructed. The processing information management DB 7001 is configured by a processing information management table described later. Further, the storage unit 7000 stores characteristic data on the collation side described later.

(処理情報管理テーブル)
図12に示されている各テーブルは集中データ処理サーバ7の記憶部7000に保存されており、実時間データ処理端末3が行なう処理内容を管理するためのテーブルである。
(Processing information management table)
Each table shown in FIG. 12 is stored in the storage unit 7000 of the centralized data processing server 7 and is a table for managing the processing contents performed by the real-time data processing terminal 3.

図12(a)は、顔認識サービス実行のためのテーブルである。このテーブルは実時間データ処理端末3には、サービス名称「物体認識」、及び処理情報が関連付けて管理されている。この場合の処理情報には、物体検出処理(例えば、顔検出処理)を実行させるか否か、生成される顔領域切出し画像の水平画素数と垂直画素数、及び生成される顔領域切出し画像の射影方式の各情報が含まれている。   FIG. 12A is a table for executing the face recognition service. This table is managed by the real-time data processing terminal 3 in association with the service name “object recognition” and processing information. The processing information in this case includes whether to execute object detection processing (for example, face detection processing), the number of horizontal pixels and vertical pixels of the generated face area cut-out image, and the generated face area cut-out image. Each information of the projection method is included.

図12(b)、(c)は、物体ぼかしサービス実行のためのテーブルである。このテーブルでは、サービス名称「物体ぼかし」、及び処理情報が関連付けて管理されている。この場合の処理情報には、実時間データ処理端末3に物体ぼかし処理(例えば、顔ぼかし処理)を実行させるか否か、生成される撮像画像の水平画素数と垂直画素数、生成される撮像画像の射影方式の各情報が含まれている。実時間データ処理端末3に物体ぼかし処理を実行させない場合(図12(b)のOFF参照)、代わりに集中データ処理サーバ7が物体ぼかし処理のサービスを行う。実時間データ処理端末3に物体ぼかし処理を実行させる場合(図12(c)のON参照)、実時間データ処理端末3が物体ぼかし処理を行う。物体ぼかしサービスの場合、実時間データ処理端末3に物体ぼかし処理(例えば、顔ぼかし処理)を実行させるか否かに拘わらず、集中データ処理サーバ7が物体ぼかし処理後の画像データを保存するサービスを行う。   FIGS. 12B and 12C are tables for executing the object blurring service. In this table, the service name “object blur” and the processing information are managed in association with each other. The processing information in this case includes whether the real-time data processing terminal 3 performs object blurring processing (for example, face blurring processing), the number of horizontal pixels and the number of vertical pixels of the generated captured image, and the generated imaging Each information of the image projection method is included. When the real-time data processing terminal 3 does not execute the object blurring process (see OFF in FIG. 12B), the centralized data processing server 7 provides the object blurring service instead. When the real-time data processing terminal 3 performs the object blurring process (see ON in FIG. 12C), the real-time data processing terminal 3 performs the object blurring process. In the case of the object blur service, a service in which the central data processing server 7 stores the image data after the object blur process regardless of whether or not the real-time data processing terminal 3 executes the object blur process (for example, the face blur process). I do.

集中データ処理サーバ7の処理能力が比較的高い場合には、予め処理情報管理DB7001に、図12(a)、(b)のテーブルが管理されている。一方、集中データ処理サーバ7の処理能力が比較的低い場合には、予め処理情報管理DB7001に、図12(a)、(c)のテーブルが管理されている。   When the processing capability of the centralized data processing server 7 is relatively high, the tables shown in FIGS. 12A and 12B are managed in advance in the processing information management DB 7001. On the other hand, when the processing capability of the centralized data processing server 7 is relatively low, the tables shown in FIGS. 12A and 12C are managed in the processing information management DB 7001 in advance.

なお、透視投影の詳細な内容が日本の特許3012142、正距円筒射影の詳細な内容は日本の特許3025255に開示されているため、ここでは説明を省略する。   The detailed contents of the perspective projection are disclosed in Japanese Patent 3012142, and the detailed contents of the equirectangular projection are disclosed in Japanese Patent 3025255.

(集中データ処理サーバの各機能構成)
集中データ処理サーバ7の送受信部71は、ネットワークI/F709、及びCPU701の処理によって実現され、通信ネットワーク(ここでは、インターネット600)を介して、分散データ処理端末6と各種データ(または情報)の送受信を行う。送受信部71は、照合データと被照合データとの照合要求を分散データ処理端末6から受信したり、分散データ処理端末6に対して照合結果を示す照合結果情報を送信したりする。
(Functional configuration of centralized data processing server)
The transmission / reception unit 71 of the centralized data processing server 7 is realized by the processing of the network I / F 709 and the CPU 701, and communicates with the distributed data processing terminal 6 and various data (or information) via a communication network (in this case, the Internet 600). Send and receive. The transmission / reception unit 71 receives a collation request between the collation data and the collated data from the distributed data processing terminal 6 or transmits collation result information indicating the collation result to the distributed data processing terminal 6.

受付部72は、キーボード711、マウス712、及びCPU701の処理によって実現され、利用者の各種操作を受け付ける。   The accepting unit 72 is realized by processing of the keyboard 711, the mouse 712, and the CPU 701, and accepts various operations of the user.

特徴量生成部74は、CPU701の処理によって実現され、送受信部71によって受信された被照合データ(部分画像データ)及び照合データから特徴量のパラメータを生成する。   The feature quantity generation unit 74 is realized by the processing of the CPU 701, and generates a feature quantity parameter from the collated data (partial image data) and the collation data received by the transmission / reception unit 71.

照合部75は、CPU701の処理によって実現され、特徴量生成部74で生成された特徴量を用いて照合データ側の特徴量と被照合データ側の特徴量とを照合し、類似度を示す得点(ポイント)を算出する。   The collation unit 75 is realized by the processing of the CPU 701, and collates the feature amount on the collation data side with the feature amount on the collation data side using the feature amount generated by the feature amount generation unit 74, and shows a score indicating similarity (Point) is calculated.

物体検出部76は、送受信部71で受信した画像から物体(例えば、顔)を検出する。   The object detection unit 76 detects an object (for example, a face) from the image received by the transmission / reception unit 71.

ぼかし処理部77は、送受信部71で受信した画像の一部または全部に対して、ぼかしをかける処理を実行する。   The blur processing unit 77 executes a process of blurring a part or all of the image received by the transmission / reception unit 71.

記憶・読出部79は、CPU701の処理によって実現され、記憶部7000に各種データ(または情報)を記憶したり、記憶部7000から各種データ(または情報)を読み出したりする。   The storage / reading unit 79 is realized by the processing of the CPU 701, stores various data (or information) in the storage unit 7000, and reads out various data (or information) from the storage unit 7000.

<サービス提供サーバの機能構成>
次に、図9、図14乃至図16を用いて、サービス提供サーバ8の各機能構成について詳細に説明する。図9に示されているように、サービス提供サーバ8は、送受信部81、判断部82、取出部87、及び記憶・読出部89を有している。これら各部は、図6に示されている各構成要素のいずれかが、HD704からRAM703上に展開されたサービス提供サーバ8用プログラムに従ったCPU701からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of service providing server>
Next, the functional configuration of the service providing server 8 will be described in detail with reference to FIGS. 9 and 14 to 16. As illustrated in FIG. 9, the service providing server 8 includes a transmission / reception unit 81, a determination unit 82, an extraction unit 87, and a storage / reading unit 89. Each of these units is a function realized by any one of the constituent elements shown in FIG. 6 being operated by an instruction from the CPU 701 according to the program for the service providing server 8 expanded from the HD 704 to the RAM 703, or Means.

また、サービス提供サーバ8は、図6に示されているRAM703、及びHD704によって構築される記憶部8000を有している。この記憶部8000には、分散データ処理端末6又は認証サーバ9から送られて来る各種データが記憶される。また、記憶部8000には、図11で示されている各プログラムが全て記憶されており、サービス提供サーバ8は、実時間データ処理端末3の要求に応じて、要求対象のプログラムを送信することができる。   Further, the service providing server 8 includes a storage unit 8000 constructed by the RAM 703 and the HD 704 shown in FIG. The storage unit 8000 stores various data sent from the distributed data processing terminal 6 or the authentication server 9. The storage unit 8000 stores all the programs shown in FIG. 11, and the service providing server 8 transmits the requested program in response to a request from the real-time data processing terminal 3. Can do.

更に、記憶部8000には、セッション管理DB8001、及び認証サーバ管理DB8002が構築されている。このうち、セッション管理DB8001は、後述のセッション管理テーブルによって構成されている。認証サーバ管理DB8002は、後述の認証サーバ管理テーブルによって構成されている。以下、各テーブルについて詳細に説明する。   Further, the storage unit 8000 includes a session management DB 8001 and an authentication server management DB 8002. Among these, the session management DB 8001 is configured by a session management table described later. The authentication server management DB 8002 is configured by an authentication server management table described later. Hereinafter, each table will be described in detail.

(セッション管理テーブル)
図14は、セッション管理テーブルを示す概念図である。このセッション管理テーブルでは、分散データ処理端末6にサービスを提供するために、分散データ処理端末6と確立する通信セッションを識別するためのセッションID、分散データ処理端末6を識別するための端末ID、及び端末IDで示される利用者の分散データ処理端末6のIPアドレスが関連付けて記憶されて管理されている。
(Session management table)
FIG. 14 is a conceptual diagram showing a session management table. In this session management table, in order to provide a service to the distributed data processing terminal 6, a session ID for identifying a communication session established with the distributed data processing terminal 6, a terminal ID for identifying the distributed data processing terminal 6, And the IP address of the user's distributed data processing terminal 6 indicated by the terminal ID is stored and managed in association with each other.

図15(a)、(b)、(c)は、端末ID(identification)の一例として、電子メールアドレスを示しており、それぞれ認証対象部分と認証対象外部分によって構成されている。認証対象部分は、認証サーバ9によって認証される際に利用される利用者IDである。認証対象外部分は、認証サーバ9によって認証される際に利用されない部分である。   FIGS. 15A, 15B, and 15C show an e-mail address as an example of a terminal ID (identification), each of which includes an authentication target part and an authentication target non-part. The authentication target portion is a user ID used when being authenticated by the authentication server 9. The non-authentication target part is a part that is not used when being authenticated by the authentication server 9.

このうち、図15(a)に示されている第1のパターンでは、認証対象部分は、アカウント名”asai”、ホスト名”myhost”、及びドメイン名の前段部分“ricoo.com”によって構成されている。一方、認証対象外部分は、ドメイン名の後段部分”theta1”によって構成されている。この場合、取出部87は、”/”によって、認証対象部分と認証対象外部分を区別する。   Among these, in the first pattern shown in FIG. 15A, the authentication target part is composed of the account name “asai”, the host name “myhost”, and the domain name “ricoo.com”. ing. On the other hand, the non-authentication part is composed of the latter part “theta1” of the domain name. In this case, the extraction unit 87 distinguishes between the authentication target part and the non-authentication part by “/”.

また、図15(b)も第1のパターンを示しているが、認証対象外部分が図15(a)と異なる。即ち、認証サーバ9は、図15(a)に示されている端末IDと、図15(b)に示されている端末IDでは、認証対象部分が同じであるため、同じIDとして認証する。   FIG. 15B also shows the first pattern, but the non-authentication part is different from FIG. 15A. That is, since the authentication target part is the same between the terminal ID shown in FIG. 15 (a) and the terminal ID shown in FIG. 15 (b), the authentication server 9 authenticates as the same ID.

なお、端末IDは、図15(c)に示されている第2のパターンであってもよい。この第2のパターンでは、認証対象部分は、アカウント名の前段部分”asai”によって構成されている。一方、認証対象外部分は、アカウント名の後段部分”theta2”、ホスト名”myhost”、及びドメイン名“ricoo.com”によって構成されている。この場合、取出部87は、”+”によって、認証対象部分と認証対象外部分を区別する。   The terminal ID may be the second pattern shown in FIG. In this second pattern, the authentication target part is composed of the preceding part “asai” of the account name. On the other hand, the non-authenticated part is composed of the latter part “theta2” of the account name, the host name “myhost”, and the domain name “ricoo.com”. In this case, the extraction unit 87 distinguishes the authentication target part and the non-authentication part by “+”.

(認証サーバ管理テーブル)
図16は、認証サーバ管理テーブルを示す概念図である。この認証サーバ管理テーブルでは、各認証サーバ9を識別するための認証サーバID毎に、各認証サーバ9にアクセスするためのURL(Uniform Resource Locator)が関連付けて記憶されて管理されている。
(Authentication server management table)
FIG. 16 is a conceptual diagram showing an authentication server management table. In this authentication server management table, a URL (Uniform Resource Locator) for accessing each authentication server 9 is stored and managed in association with each authentication server ID for identifying each authentication server 9.

(サービス提供サーバの各機能構成)
次に、図9を用いて、サービス提供サーバ8の各機能構成について詳細に説明する。
(Functional configuration of service providing server)
Next, each functional configuration of the service providing server 8 will be described in detail with reference to FIG.

サービス提供サーバ8の送受信部81は、主に、図6に示されているCPU701からの命令、及びネットワークI/F709によって実現され、通信ネットワーク9を介して分散データ処理端末6、又は認証サーバ9と各種データ(または情報)の送受信を行う。   The transmission / reception unit 81 of the service providing server 8 is mainly realized by a command from the CPU 701 shown in FIG. 6 and a network I / F 709, and via the communication network 9, the distributed data processing terminal 6 or the authentication server 9. Send and receive various data (or information).

判断部82は、主に、図6に示されているCPU701からの命令によって実現され、例えば、分散データ処理端末6にサービスを提供するための通信セッションが既に確立されているか否かを判断する。   The determination unit 82 is realized mainly by a command from the CPU 701 shown in FIG. 6. For example, the determination unit 82 determines whether a communication session for providing a service to the distributed data processing terminal 6 has already been established. .

取出部87は、主に、図6に示されているCPU701からの命令によって実現され、端末IDから、図15に示されているような利用者ID(認証対象部分)を取り出す処理を行う。   The extracting unit 87 is realized mainly by a command from the CPU 701 shown in FIG. 6 and performs a process of extracting a user ID (authentication target part) as shown in FIG. 15 from the terminal ID.

記憶・読出部89は、主に、図6に示されているCPU701からの命令、及びHDD705によって実現され、記憶部8000に各種データを記憶したり、記憶部8000から各種データを読み出したりする。   The storage / reading unit 89 is realized mainly by the instruction from the CPU 701 and the HDD 705 shown in FIG. 6, and stores various data in the storage unit 8000 and reads various data from the storage unit 8000.

<認証サーバの機能構成>
次に、図9及び図11を用いて、認証サーバ9の機能構成について詳細に説明する。認証サーバ9は、送受信部91、認証部92、及び、記憶・読出部99を有している。これら各部は、図6に示されている各構成要素のいずれかが、HD704からRAM703上に展開された認証サーバ9用プログラムに従ったCPU701からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of authentication server>
Next, the functional configuration of the authentication server 9 will be described in detail with reference to FIGS. 9 and 11. The authentication server 9 includes a transmission / reception unit 91, an authentication unit 92, and a storage / reading unit 99. Each of these units is a function or means realized by any of the constituent elements shown in FIG. 6 being operated by a command from the CPU 701 according to the authentication server 9 program expanded from the HD 704 onto the RAM 703. It is.

また、認証サーバ9は、図6に示されているRAM703、及びHD704によって構築される記憶部9000を有している。この記憶部9000には、分散データ処理端末6又はサービス提供サーバ8から送られて来る各種データが記憶される。   Further, the authentication server 9 includes a storage unit 9000 constructed by the RAM 703 and the HD 704 shown in FIG. The storage unit 9000 stores various data sent from the distributed data processing terminal 6 or the service providing server 8.

更に、記憶部9000には、認証管理DB9001が構築されている。認証管理DB9001は、後述の認証管理テーブルによって構成されている。以下、このテーブルについて詳細に説明する。   Further, an authentication management DB 9001 is constructed in the storage unit 9000. The authentication management DB 9001 is configured by an authentication management table described later. Hereinafter, this table will be described in detail.

(認証管理テーブル)
図17(a)は認証サーバ9aが有する認証管理テーブルを示す概念図、図17(b)は認証サーバ9bが有する認証管理テーブルを示す概念図、図17(c)は認証サーバ9cが有する認証管理テーブルを示す概念図である。
(Authentication management table)
17A is a conceptual diagram showing an authentication management table possessed by the authentication server 9a, FIG. 17B is a conceptual diagram showing an authentication management table possessed by the authentication server 9b, and FIG. 17C is an authentication possessed by the authentication server 9c. It is a conceptual diagram which shows a management table.

各認証管理テーブルでは、端末IDのうちの利用者ID(認証対象部分)とパスワードとが関連付けて記憶されて管理されている。   In each authentication management table, the user ID (part to be authenticated) of the terminal ID and the password are stored and managed in association with each other.

(認証サーバの各機能構成)
次に、図9を用いて、認証サーバ9の各機能構成について詳細に説明する。
(Functional configuration of authentication server)
Next, each functional configuration of the authentication server 9 will be described in detail with reference to FIG.

認証サーバ9の送受信部91は、主に、図6に示されているCPU701からの命令、及びネットワークI/F709によって実現され、インターネット600を介して分散データ処理端末6及びサービス提供サーバ8と各種データ(または情報)の送受信を行う。   The transmission / reception unit 91 of the authentication server 9 is realized mainly by a command from the CPU 701 shown in FIG. 6 and a network I / F 709, and is distributed with the distributed data processing terminal 6 and the service providing server 8 via the Internet 600. Send and receive data (or information).

認証部92は、主に、図6に示されているCPU701からの命令によって実現され、認証要求を送信した画像取得端末2に、サービスを受けられる正当な権限があるか否かを判断することで、IDの認証を行なう。認証サーバ9が、このような認証を実施するのは、分散データ処理端末6が、画像取得端末2を管理していることに由来する。   The authentication unit 92 is realized mainly by a command from the CPU 701 shown in FIG. 6 and determines whether the image acquisition terminal 2 that has transmitted the authentication request has a legitimate authority to receive the service. Then, ID authentication is performed. The authentication server 9 performs such authentication because the distributed data processing terminal 6 manages the image acquisition terminal 2.

記憶・読出部99は、主に、図6に示されているCPU701からの命令、及びHDD705によって実現され、記憶部9000に各種データ(または情報)を記憶したり、記憶部9000から各種データ(または情報)を読み出したりする。   The storage / reading unit 99 is mainly realized by the command from the CPU 701 shown in FIG. 6 and the HDD 705, and stores various data (or information) in the storage unit 9000, and stores various data (or information) from the storage unit 9000 ( Or information).

〔本実施形態の処理又は動作〕
続いて、図18乃至図26を用いて、本実施形態の処理又は動作について説明する。
[Processing or operation of this embodiment]
Next, the processing or operation of this embodiment will be described with reference to FIGS.

<認証処理>
まずは、図18乃至図21を用いて、認証処理について説明する。図18及び図19は、認証処理を示したシーケンス図である。図20及び図21は、分散データ処理端末の画面例を示す図である。
<Authentication process>
First, the authentication process will be described with reference to FIGS. 18 and 19 are sequence diagrams illustrating the authentication process. 20 and 21 are diagrams showing examples of screens of the distributed data processing terminal.

図18に示されているように、分散データ処理端末6の送受信部61からサービス提供サーバ8に対して、認証先選択画面の要求を送信する(ステップS21)。この要求には、分散データ処理端末6の端末IDが含まれている。また、この際、送受信部61は、自端末のIPアドレスを送信する。これにより、サービス提供サーバ8の送受信部81は、認証先選択画面の要求、及び分散データ処理端末6のIPアドレスを受信する。   As shown in FIG. 18, a request for an authentication destination selection screen is transmitted from the transmission / reception unit 61 of the distributed data processing terminal 6 to the service providing server 8 (step S21). This request includes the terminal ID of the distributed data processing terminal 6. At this time, the transmission / reception unit 61 transmits the IP address of the terminal itself. Thereby, the transmission / reception unit 81 of the service providing server 8 receives the request for the authentication destination selection screen and the IP address of the distributed data processing terminal 6.

次に、サービス提供サーバ8の判断部82は、セッション管理テーブル(図14参照)に、ステップS21で受信された端末IDが所定のセッションIDと関連づけて管理されているか否かを判断する(ステップS22)。以降、端末IDが管理されていなかった場合について説明する。   Next, the determination unit 82 of the service providing server 8 determines whether or not the terminal ID received in Step S21 is managed in association with a predetermined session ID in the session management table (see FIG. 14) (Step S21). S22). Hereinafter, a case where the terminal ID is not managed will be described.

サービス提供サーバ8の送受信部81は分散データ処理端末6に対して、認証先選択画面のデータを送信する(ステップS23)。これにより、分散データ処理端末6の送受信部61は、認証先選択画面のデータを受信する。   The transmission / reception unit 81 of the service providing server 8 transmits the authentication destination selection screen data to the distributed data processing terminal 6 (step S23). Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the data of the authentication destination selection screen.

次に、分散データ処理端末6の表示制御部63はディスプレイ517に対して、図20に示されているような認証先選択画面s1を表示させる(ステップS24)。図20では、分散データ処理端末6としての画面例が示されている。この認証先選択画面s1には、端末IDの入力欄b1、パスワードの入力欄b2、及びログイン要求(認証要求)するためのログインボタンb3が表示されている。更に、認証先選択画面s1には、認証サーバ9a,9b,9cをそれぞれ選択するための認証サーバ選択ボタンa1,a2,a3が表示されている。例えば、認証サーバ選択ボタンa1は、利用者が物体認証処理のサービスを受ける場合のボタンである。認証サーバ選択ボタンa2は、利用者が物体ぼかしのサービスを受ける場合のボタンである。   Next, the display control unit 63 of the distributed data processing terminal 6 causes the display 517 to display an authentication destination selection screen s1 as shown in FIG. 20 (step S24). FIG. 20 shows a screen example as the distributed data processing terminal 6. On the authentication destination selection screen s1, a terminal ID input field b1, a password input field b2, and a login button b3 for requesting login (authentication request) are displayed. Furthermore, authentication server selection buttons a1, a2, and a3 for selecting authentication servers 9a, 9b, and 9c are displayed on the authentication destination selection screen s1. For example, the authentication server selection button a1 is a button used when the user receives an object authentication processing service. The authentication server selection button a2 is a button when the user receives an object blurring service.

ここで、利用者が、入力欄b1に自己の端末ID、入力欄b2に自己のパスワードを入力し、認証サーバ選択ボタンa1,a2,a3のうち所望のボタンを押下し、ログインボタンb3を押下すると、受付部62が各入力及び選択を受け付ける(ステップS25)。ここでは、認証サーバ選択ボタンa1が選択されることで、画像認識処理のうち、物体検出処理プログラムProgD01により物体検出処理が実行される場合について説明する。   Here, the user inputs his / her terminal ID in the input field b1 and his / her password in the input field b2, presses a desired button among the authentication server selection buttons a1, a2 and a3, and presses the login button b3. Then, the reception part 62 receives each input and selection (step S25). Here, a case will be described in which object detection processing is executed by the object detection processing program ProgD01 in the image recognition processing by selecting the authentication server selection button a1.

送受信部61はサービス提供サーバ8に対して、ID(ここでは、端末ID又は利用者ID)の認証要求を送信する(ステップS26)。この認証要求には、ステップS25で受け付けられた端末ID及びパスワード、並びに認証サーバ9の選択結果及び分散データ処理端末6のURLが含まれている。この認証結果は、認証サーバ9を識別するための認証サーバIDを示している。これにより、サービス提供サーバ8の送受信部81は、IDの認証要求を受信する。   The transmission / reception unit 61 transmits an authentication request for an ID (here, a terminal ID or a user ID) to the service providing server 8 (step S26). This authentication request includes the terminal ID and password received in step S25, the selection result of the authentication server 9, and the URL of the distributed data processing terminal 6. This authentication result indicates an authentication server ID for identifying the authentication server 9. Thereby, the transmission / reception unit 81 of the service providing server 8 receives the ID authentication request.

次に、サービス提供サーバ8の記憶・読出部89は、ステップS26で受信された選択結果としての認証サーバIDを検索キーとして、認証サーバ管理テーブル(図16参照)を検索することにより、対応する認証サーバのURLを読み出す(ステップS27)。   Next, the storage / reading unit 89 of the service providing server 8 responds by searching the authentication server management table (see FIG. 16) using the authentication server ID as the selection result received in step S26 as a search key. The URL of the authentication server is read (step S27).

次に、取出部87は、ステップS26で受信された端末IDのうち、利用者ID(認証対象部分)のみを取り出す(ステップS28)。そして、送受信部81は、ステップS27で読み出されたURLで示される認証サーバ9に対して、IDの認証要求を送信する(ステップS29)。このIDの認証要求には、ステップS28で取り出された利用者ID(認証対象部分)、ステップS26で受信されたパスワード、及びステップ26で受信された分散データ処理端末6のURLが含まれている。これにより、認証サーバ9の送受信部71は、利用者の認証要求を受信する。   Next, the extraction unit 87 extracts only the user ID (authentication target part) from the terminal ID received in step S26 (step S28). Then, the transmission / reception unit 81 transmits an ID authentication request to the authentication server 9 indicated by the URL read in step S27 (step S29). This ID authentication request includes the user ID (authentication target part) extracted in step S28, the password received in step S26, and the URL of the distributed data processing terminal 6 received in step 26. . Thereby, the transmission / reception part 71 of the authentication server 9 receives a user's authentication request.

次に、認証サーバ9の記憶・読出部99は、ステップS29によって受信された利用者ID(認証対象部分)及びパスワードの組を検索キーとし、認証管理テーブル(図17参照)において同じ組の認証対象部分及びパスワードを検索した結果を用いて、認証部92が認証を行なう(ステップS30)。認証部92は、同じ組が管理されている場合には、分散データ処理端末6はサービス提供サーバ8からサービスを受けるための正当な端末であると判断し、同じ組が管理されていない場合には、分散データ処理端末6はサービス提供サーバ8からサービスを受けるための正当な端末でないと判断する。   Next, the storage / reading unit 99 of the authentication server 9 uses the combination of the user ID (authentication target part) and the password received in step S29 as a search key, and the same set of authentications in the authentication management table (see FIG. 17). The authentication unit 92 performs authentication using the search result of the target part and the password (step S30). When the same set is managed, the authentication unit 92 determines that the distributed data processing terminal 6 is a valid terminal for receiving a service from the service providing server 8, and when the same set is not managed. Determines that the distributed data processing terminal 6 is not a valid terminal for receiving a service from the service providing server 8.

なお、ステップS28では、取出部87が端末IDから認証対象部分を取り出したが、これに限るものではない。例えば、サービス提供サーバ8は取出部87を有しておらず、ステップS29において、送受信部81が、パスワード及びURLの他に、端末IDのうち利用者ID(認証対象部分)のみを送信するようにしてもよい。   In step S28, the extraction unit 87 extracts the authentication target part from the terminal ID, but the present invention is not limited to this. For example, the service providing server 8 does not have the extraction unit 87, and in step S29, the transmission / reception unit 81 transmits only the user ID (authentication target portion) of the terminal ID in addition to the password and the URL. It may be.

続いて、図19に示されているように、認証サーバ9の認証部92は、トークン(送信権)の暗号化を行なう(ステップS41)。そして、送受信部91は、ステップS29によって受信された分散データ処理端末6のURLに基づいて、この分散データ処理端末6に認証結果を送信する(ステップS42)。この認証結果は、分散データ処理端末6が正当であるか否かを示すとともに、ステップS41によって暗号化されたトークンが含まれている。これにより、分散データ処理端末6の送受信部61は、利用者の認証結果を受信する。以降、利用者が正当な権限を有する場合について説明する。   Subsequently, as shown in FIG. 19, the authentication unit 92 of the authentication server 9 encrypts the token (transmission right) (step S41). Then, based on the URL of the distributed data processing terminal 6 received in step S29, the transmission / reception unit 91 transmits an authentication result to the distributed data processing terminal 6 (step S42). This authentication result indicates whether or not the distributed data processing terminal 6 is valid, and includes the token encrypted in step S41. Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the authentication result of the user. Hereinafter, a case where the user has a valid authority will be described.

分散データ処理端末6の送受信部61は、サービス提供サーバ8に対して、セッション確立要求を送信する(ステップS43)。このセッション確立要求には、端末ID、及びステップS42で受信された暗号化されているトークンが含まれている。これにより、サービス提供サーバ8の送受信部81は、セッション確立要求を受信する。   The transmission / reception unit 61 of the distributed data processing terminal 6 transmits a session establishment request to the service providing server 8 (step S43). This session establishment request includes the terminal ID and the encrypted token received in step S42. Thereby, the transmission / reception unit 81 of the service providing server 8 receives the session establishment request.

次に、サービス提供サーバ8は、セッション確立要求を送信した分散データ処理端末6が、ステップS30で正当であると判断されたことを確認するため、送受信部81は認証サーバ9に対してトークンの認証要求を送信する(ステップS44)。このトークンの認証要求には、ステップS43で受信された暗号化されているトークンが含まれている。これにより、認証サーバ9の送受信部91は、トークンの認証要求を受信する。   Next, the service providing server 8 confirms that the distributed data processing terminal 6 that has transmitted the session establishment request is legitimate in step S30. An authentication request is transmitted (step S44). This token authentication request includes the encrypted token received in step S43. Thereby, the transmission / reception unit 91 of the authentication server 9 receives the token authentication request.

次に、認証部92は、ステップS44によって受信された、暗号化されているトークンを復号化する(ステップS45)。そして、認証部92は、ステップS41で暗号化する前のトークンと、ステップS45で復号化した後のトークンを比較することで、トークンの認証を行なう(ステップS46)。そして、認証サーバ9の送受信部91は、サービス提供サーバ8に対して、ステップS46の認証結果を送信する(ステップS47)。これにより、サービス提供サーバ8の送受信部81は、認証結果を受信する。以降、ステップS46において、トークンが正当であると判断された場合について説明する。   Next, the authentication unit 92 decrypts the encrypted token received in step S44 (step S45). Then, the authentication unit 92 authenticates the token by comparing the token before encryption in step S41 with the token after decryption in step S45 (step S46). Then, the transmission / reception unit 91 of the authentication server 9 transmits the authentication result of step S46 to the service providing server 8 (step S47). Thereby, the transmission / reception unit 81 of the service providing server 8 receives the authentication result. Hereinafter, the case where it is determined in step S46 that the token is valid will be described.

次に、サービス提供サーバ8の記憶・読出部89は、セッション管理テーブル(図14参照)において、新たにセッションIDを割り当てるとともに、このセッションIDに対して、ステップS26で受信された端末ID及びIPアドレスを関連付けて管理する(ステップS48)。そして、送受信部81は、分散データ処理端末6に対してサービス提供画面のデータを送信する(ステップS49)。これにより、分散データ処理端末6の送受信部61は、サービス提供画面のデータを受信する。   Next, the storage / reading unit 89 of the service providing server 8 assigns a new session ID in the session management table (see FIG. 14), and the terminal ID and IP received in step S26 for this session ID. Addresses are managed in association with each other (step S48). Then, the transmission / reception unit 81 transmits the service provision screen data to the distributed data processing terminal 6 (step S49). Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the data of the service providing screen.

次に、分散データ処理端末6の表示制御部63は、ディスプレイ517上に、図21に示されているようなサービス提供画面s2を表示させる(ステップS50)。図21では、分散データ処理端末6の画面例が示されている。ここでは、サービス提供例として、分散データ処理端末6から画像取得端末2に対する遠隔操作を実現させるための遠隔操作サービスについて説明する。図21に示されているサービス提供画面s2には、遠隔操作対象を識別するための端末IDの入力欄c1、及び「遠隔操作開始」ボタンc2が表示されている。   Next, the display control unit 63 of the distributed data processing terminal 6 displays the service provision screen s2 as shown in FIG. 21 on the display 517 (step S50). FIG. 21 shows a screen example of the distributed data processing terminal 6. Here, as a service providing example, a remote operation service for realizing remote operation from the distributed data processing terminal 6 to the image acquisition terminal 2 will be described. In the service providing screen s2 shown in FIG. 21, a terminal ID input field c1 for identifying a remote operation target and a “remote operation start” button c2 are displayed.

<画像認識の準備処理>
(サービスの起動処理)
図22を用いて、画像認識の開始要求の処理を示したシーケンス図である。
<Image recognition preparation process>
(Service startup processing)
It is the sequence diagram which showed the process of the start request | requirement of image recognition using FIG.

まず、分散データ処理端末6では、受付部62が利用者によって指定されたサービス名称に係るサービスの開始要求を受け付ける(ステップS61)。この場合、分散データ処理端末6のGUI(Graphical User Interface)が利用される。そして、分散テータ端末6の送受信部61は、集中データ処理サーバ7に対して処理情報の要求を送信する(ステップS62)。この時、開始するサービス(物体認識,顔ぼかし等)を特定するためのサービス名称が送信される。これにより、集中データ処理サーバ7の送受信部71は、処理情報の要求を受信する。   First, in the distributed data processing terminal 6, the accepting unit 62 accepts a service start request relating to the service name designated by the user (step S61). In this case, the GUI (Graphical User Interface) of the distributed data processing terminal 6 is used. Then, the transmission / reception unit 61 of the distributed data terminal 6 transmits a request for processing information to the centralized data processing server 7 (step S62). At this time, a service name for specifying a service to start (object recognition, face blurring, etc.) is transmitted. Thereby, the transmission / reception unit 71 of the centralized data processing server 7 receives a request for processing information.

集中データ処理サーバ7の記憶・読出部79は、ステップS62で受信されたサービス名称を検索キーとして処理情報管理DB7001を検索することにより、対応する処理情報を読み出す(ステップS63)。例えば、顔認識サービスが選択された場合は、図12(a)のテーブル、物体ぼかしサービスが選択された場合は図12(b)又は図12(c)のテーブルが読み出される。図12(b)と図12(c)とでは、物体ぼかしサービスが実行されるサーバの性能によりテーブルの内容が異なる。図12(b)は集中データ処理サーバ7の性能が比較的高い場合に用いられ、実時間データ処理端末3は顔ぼかし処理を実行しない。対する図12(c)は集中データ処理サーバ7の性能が比較的低い場合に用いられ、実時間データ処理端末3は顔ぼかし処理を実行する。   The storage / reading unit 79 of the centralized data processing server 7 reads the corresponding processing information by searching the processing information management DB 7001 using the service name received in step S62 as a search key (step S63). For example, when the face recognition service is selected, the table of FIG. 12A is read, and when the object blurring service is selected, the table of FIG. 12B or FIG. 12C is read. In FIG. 12B and FIG. 12C, the contents of the table differ depending on the performance of the server on which the object blurring service is executed. FIG. 12B is used when the performance of the centralized data processing server 7 is relatively high, and the real-time data processing terminal 3 does not execute the face blurring process. On the other hand, FIG. 12C is used when the performance of the centralized data processing server 7 is relatively low, and the real-time data processing terminal 3 executes the face blurring process.

次に、集中データ処理サーバ7の送受信部71は、分散データ処理端末6に対して処理情報を送信する(ステップS64)。これにより、分散データ処理端末6の送受信信部61は、処理情報を受信する。   Next, the transmission / reception unit 71 of the centralized data processing server 7 transmits processing information to the distributed data processing terminal 6 (step S64). As a result, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the processing information.

分散データ処理端末6の送受信部61は、画像取得端末2の近端末データ処理装置5に対して処理準備要求を送信する(ステップS65)。これにより画像取得端末2の送受信部21は処理準備要求を受信する。この要求には、ステップS61で指定されたサービス名称、及びステップS64で受信された処理情報が含まれている。近端末データ処理装置5の通信部58は、実時間データ処理端末3の通信部48に対して、処理情報を転送する(ステップS66)。そして、実時間データ処理端末3の記憶・読出部39は、受信された処理情報に従い、実行する処理の設定を行なう(ステップS67)。実行処理の設定の詳細はサービス毎に後述する。   The transmission / reception unit 61 of the distributed data processing terminal 6 transmits a processing preparation request to the near-terminal data processing device 5 of the image acquisition terminal 2 (step S65). As a result, the transmission / reception unit 21 of the image acquisition terminal 2 receives the processing preparation request. This request includes the service name specified in step S61 and the processing information received in step S64. The communication unit 58 of the near-terminal data processing device 5 transfers the processing information to the communication unit 48 of the real-time data processing terminal 3 (Step S66). Then, the storage / reading unit 39 of the real-time data processing terminal 3 sets a process to be executed according to the received process information (step S67). Details of the execution process setting will be described later for each service.

また、ステップS67による設定後、実時間データ処理端末3の通信部48は近端末データ処理装置5に対して設定完了通知を送信する(ステップS68)。これにより近端末データ処理装置5の送受信部51は設定完了通知を受信する。   In addition, after the setting in step S67, the communication unit 48 of the real time data processing terminal 3 transmits a setting completion notification to the near terminal data processing device 5 (step S68). As a result, the transmission / reception unit 51 of the near-terminal data processing device 5 receives the setting completion notification.

次に、近端末データ処理装置5の送受信部51は、分散データ処理端末6に対して処理準備完了通知を送信する(ステップS69)。これによって分散データ処理端末6の送受信部61は処理準備完了通知を受信する。   Next, the transmission / reception unit 51 of the near-terminal data processing device 5 transmits a processing preparation completion notification to the distributed data processing terminal 6 (step S69). As a result, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the processing preparation completion notification.

分散データ処理端末6の送受信部61は、集中データ処理サーバ7に対してサービス開始要求を送信する(ステップS70)。これによって、集中データ処理サーバ7の送受信部71は、サービス開始要求を受信する。また、分散データ処理端末6の送受信部61は、近端末データ処理装置5に対して処理開始要求を送信する(ステップS71)。近端末データ処理装置5の通信部58は、実時間データ処理端末3の通信部48に対して、処理開始要求を転送する(ステップS72)。これによって、サービス全体の開始が行われる。サービス処理の詳細はサービス毎に後述する。   The transmission / reception unit 61 of the distributed data processing terminal 6 transmits a service start request to the centralized data processing server 7 (step S70). Thereby, the transmission / reception unit 71 of the centralized data processing server 7 receives the service start request. Further, the transmission / reception unit 61 of the distributed data processing terminal 6 transmits a processing start request to the near-terminal data processing device 5 (step S71). The communication unit 58 of the near-terminal data processing device 5 transfers a process start request to the communication unit 48 of the real-time data processing terminal 3 (step S72). As a result, the entire service is started. Details of the service processing will be described later for each service.

続いて、顔認識サービスの1パターンと物体ぼかしサービスの2パターンの計3パターンについての処理を説明する。   Next, processing for a total of three patterns, one pattern for the face recognition service and two patterns for the object blurring service, will be described.

(実時間データ処理端末の設定処理)
画像取得端末2における設定、具体的には、図22のステップS67のシーケンスをそれぞれのサービス毎に説明する。
(Real-time data processing terminal setting process)
The setting in the image acquisition terminal 2, specifically, the sequence of step S67 in FIG. 22 will be described for each service.

〔a〕物体認識サービスの例
近端末データ処理装置5の送受信部51は、処理情報を受信すると(S65参照)、近端末データ処理装置5のサービス特定部54は、サービス名称(物体認識)に基づいて実行すべきサービス(ここでは、顔認識サービス)を特定する。そして、近端末データ処理装置5の通信部58は、実時間データ処理端末3の通信部48に対して、処理設定テーブル(図12(a)参照)の内容が示された処理情報に従い、以下の設定を行なう。
(1)物体検出部35が処理準備を完了する。
(2)画像処理部34が、検出する物体領域矩形画像の水平画素数と垂直画素数を200に設定する。この場合の例では、集中データ処理サーバ7の照合部75で行われる物体(例えば、顔)認識処理のアルゴリズムに最適なサイズが設定される。
(3)画像処理部34が、物体検出部35で検出された物体領域矩形画像の射影方式を透視投影方式に設定する。集中データ処理サーバ7の照合部75で正しい照合結果を得るための設定である。
[A] Example of Object Recognition Service When the transmission / reception unit 51 of the near terminal data processing device 5 receives the processing information (see S65), the service specifying unit 54 of the near terminal data processing device 5 sets the service name (object recognition). A service to be executed (here, a face recognition service) is specified based on the information. Then, the communication unit 58 of the near-terminal data processing device 5 sends the following information to the communication unit 48 of the real-time data processing terminal 3 according to the processing information indicating the contents of the processing setting table (see FIG. 12A). Set up.
(1) The object detection unit 35 completes preparation for processing.
(2) The image processing unit 34 sets the number of horizontal pixels and the number of vertical pixels of the detected object area rectangular image to 200. In this example, an optimum size is set for an algorithm of object (for example, face) recognition processing performed by the collation unit 75 of the centralized data processing server 7.
(3) The image processing unit 34 sets the projection method of the object area rectangular image detected by the object detection unit 35 to the perspective projection method. This is a setting for obtaining a correct collation result in the collation unit 75 of the centralized data processing server 7.

〔b〕物体ぼかしサービス1の例
近端末データ処理装置5の送受信部51は、処理情報を受信すると(S65参照)、近端末データ処理装置5のサービス特定部54は、サービス名称(物体ぼかし(サーバ))に基づいて実行すべきサービス(ここでは、集中データ処理サーバ7による物体ぼかし及び保存サービス)を特定する。そして、近端末データ処理装置5の通信部58は、実時間データ処理端末3の通信部48に対して、処理設定テーブル(図12(b)参照)の内容が示された処理情報に従い、以下の設定を行なう。
(1)ぼかし処理部47が物体ぼかし処理の無効(OFF)を設定する。
(2)画像処理部34が、接続部38を介し撮像ユニット40に対して、撮像する全体画像の水平画素数を3840・垂直画素数を2160に設定する。この場合、撮像ユニット40が撮像可能な最大サイズを設定することになるが、サイズは小さくしてもよい。
(3)画像処理部34が、撮像ユニットから取得された撮像画像データの射影方式を正距円筒射影に設定する。なお、射影方式の変換は、サービス提供サーバ8が行ってもよい。
[B] Example of Object Blur Service 1 When the transmitting / receiving unit 51 of the near terminal data processing device 5 receives the processing information (see S65), the service specifying unit 54 of the near terminal data processing device 5 reads the service name (object blur ( Server)) to identify the service to be executed (here, the object blurring and storage service by the centralized data processing server 7). Then, the communication unit 58 of the near-terminal data processing device 5 sends the following information to the communication unit 48 of the real-time data processing terminal 3 according to the processing information indicating the contents of the processing setting table (see FIG. 12B). Set up.
(1) The blur processing unit 47 sets invalidity (OFF) of the object blur processing.
(2) The image processing unit 34 sets the number of horizontal pixels of the entire image to be captured to 3840 and the number of vertical pixels to 2160 for the imaging unit 40 via the connection unit 38. In this case, the maximum size that can be captured by the imaging unit 40 is set, but the size may be reduced.
(3) The image processing unit 34 sets the projection method of the captured image data acquired from the imaging unit to equirectangular projection. The conversion of the projection method may be performed by the service providing server 8.

〔c〕物体ぼかしサービス2の例
近端末データ処理装置5の送受信部51は、処理情報を受信すると(S65参照)、近端末データ処理装置5のサービス特定部54は、サービス名称(物体ぼかし(端末))に基づいて実行すべきサービス(ここでは、実時間データ処理端末3による物体ぼかし、及び集中データ処理サーバ7による保存サービス)を特定する。そして、近端末データ処理装置5の通信部58は、実時間データ処理端末3の通信部48に対して、処理設定テーブル(図12(c)参照)の内容が示された処理情報に従い、以下の設定を行なう。
(1)ぼかし処理部47が物体ぼかし処理の有効(ON)を設定する。
(2)画像処理部34が、接続部38を介し撮像ユニット40に対して、撮像する全体画像の水平画素数を3840・垂直画素数を2160に設定する。この場合、撮像ユニット40が撮像可能な最大サイズを設定することになるが、サイズは小さくしてもよい。
(3)画像処理部34が、撮像ユニット40から取得された撮像画像データの射影方式を正距円筒射影に設定する。なお、射影方式の変換は、サービス提供サーバ8が行ってもよい。
[C] Example of Object Blur Service 2 When the transmitting / receiving unit 51 of the near terminal data processing device 5 receives the processing information (see S65), the service specifying unit 54 of the near terminal data processing device 5 reads the service name (object blur ( Terminal)) to be executed (here, object blurring by the real-time data processing terminal 3 and storage service by the centralized data processing server 7). Then, the communication unit 58 of the near-terminal data processing device 5 sends the following information to the communication unit 48 of the real-time data processing terminal 3 according to the processing information indicating the contents of the processing setting table (see FIG. 12C). Set up.
(1) The blur processing unit 47 sets the validity (ON) of the object blur processing.
(2) The image processing unit 34 sets the number of horizontal pixels of the entire image to be captured to 3840 and the number of vertical pixels to 2160 for the imaging unit 40 via the connection unit 38. In this case, the maximum size that can be captured by the imaging unit 40 is set, but the size may be reduced.
(3) The image processing unit 34 sets the projection method of the captured image data acquired from the imaging unit 40 to equirectangular projection. The conversion of the projection method may be performed by the service providing server 8.

<サービス実行中に実時間データ処理端末が行なう処理>
図23乃至図26を用いて、それぞれのサービスが設定され、実行される処理について説明する。
<Processing performed by the real-time data processing terminal during service execution>
A process in which each service is set and executed will be described with reference to FIGS.

〔a〕物体認識サービスの例
図23は実時間データ処理端末3の設定に処理設定テーブル(図12(a))を用いた場合の物体認識サービスの処理を示したシーケンス図である。
[A] Example of Object Recognition Service FIG. 23 is a sequence diagram showing processing of the object recognition service when the processing setting table (FIG. 12A) is used for setting the real-time data processing terminal 3.

まず、撮像ユニット40により撮像されることで撮像画像データが生成され、実時間データ処理端末3の接続部38は、撮像ユニット40から撮像画像データを取得する(ステップS81)。   First, captured image data is generated by being captured by the imaging unit 40, and the connection unit 38 of the real-time data processing terminal 3 acquires captured image data from the imaging unit 40 (step S81).

次に、実時間データ処理端末3の物体検出部35は、撮像画像に対して物体(ここでは、顔)の検出処理を行なう(ステップS82)。この処理で目的の検出対象(ここでは、顔)が検出された場合は、画像処理部34は、撮像画像データに対して射影方式変換を行なう(ステップS83)。この場合、画像処理部34は、撮像ユニット40により得られる等距離射影から、上述の既に設定されている透視射影への変換を行なう。   Next, the object detection unit 35 of the real-time data processing terminal 3 performs an object (here, face) detection process on the captured image (step S82). When a target detection target (here, a face) is detected in this process, the image processing unit 34 performs projection method conversion on the captured image data (step S83). In this case, the image processing unit 34 performs conversion from the equidistant projection obtained by the imaging unit 40 to the above-described already set perspective projection.

次に、画像処理部34は、物体(顔)の部分画像である物体領域矩形画像が処理設定テーブルにより設定された水平画素数及び垂直画素数になるようにリサイズ処理を行うことで、物体(顔)の部分画像である被照合データを作成する(ステップS84)。このリサイズされる画素数は、後ほど集中データ処理サーバ7で、照合データと照合しやすいように予め定められている。   Next, the image processing unit 34 performs resizing processing so that the object region rectangular image, which is a partial image of the object (face), has the number of horizontal pixels and the number of vertical pixels set by the processing setting table. Data to be verified, which is a partial image of (face), is created (step S84). The number of pixels to be resized is determined in advance so that the centralized data processing server 7 can easily collate with the collation data later.

画像処理部34は、物体(顔)の物体領域矩形画像である部分画像データの符号化(エンコード)を行う(ステップS85)。   The image processing unit 34 encodes (encodes) the partial image data that is the object region rectangular image of the object (face) (step S85).

実時間データ処理端末3の通信部48は、近端末データ処理装置5の通信部58に対して、撮像の処理完了通知を送信する(ステップS86)。この処理完了通知には、ステップS85で符号化された部分画像データとしての被照合データが含まれる。これにより、近端末データ処理装置5の通信部58は処理完了通知を受信する。   The communication unit 48 of the real-time data processing terminal 3 transmits an imaging process completion notification to the communication unit 58 of the near-terminal data processing device 5 (step S86). This processing completion notification includes data to be verified as partial image data encoded in step S85. As a result, the communication unit 58 of the near-terminal data processing device 5 receives the processing completion notification.

次に、近端末データ処理装置5の送受信部51は分散データ処理端末6に対して、撮像の処理完了通知を送信する(ステップS87)。この処理完了通知には、ステップS86で受信された被照合データが含まれる。これにより、分散データ処理端末6の送受信部61は、処理完了通知を受信する。   Next, the transmission / reception unit 51 of the near-terminal data processing device 5 transmits an imaging process completion notification to the distributed data processing terminal 6 (step S87). This process completion notification includes the collated data received in step S86. Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the processing completion notification.

次に、分散データ処理端末6の記憶・読出部69は、記憶部6000から照合データを読み出す(ステップS88)。そして、送受信部61は、集中データ処理サーバ7に対して、照合要求を送信する(ステップS89)。この照合要求には、ステップS87で受信された被照合データ、及びステップS88で読み出された照合データが含まれている。これにより、集中データ処理サーバ7の送受信部71は、照合要求を受信する。   Next, the storage / reading unit 69 of the distributed data processing terminal 6 reads the collation data from the storage unit 6000 (step S88). And the transmission / reception part 61 transmits a collation request | requirement with respect to the centralized data processing server 7 (step S89). This collation request includes the collated data received in step S87 and the collation data read in step S88. Thereby, the transmission / reception unit 71 of the centralized data processing server 7 receives the collation request.

次に、集中データ処理サーバ7の照合部75は、ステップS89で受信された照合データと被照合データとを照合し、互いのデータの類似度を示す得点を算出する(ステップS90)。照合部75による類似度の算出後に、送受信部7は、分散データ端末6に対して、照合結果通知を送信する(ステップS91)。この照合結果通知には、ステップS90で算出された類似度が含まれている。これにより、分散データ処理端末6の送受信部61は、照合結果通知を受信する。   Next, the collation unit 75 of the centralized data processing server 7 collates the collation data received in step S89 with the data to be collated, and calculates a score indicating the degree of similarity between the data (step S90). After the similarity is calculated by the collation unit 75, the transmission / reception unit 7 transmits a collation result notification to the distributed data terminal 6 (step S91). This collation result notification includes the similarity calculated in step S90. Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the verification result notification.

次に、分散データ処理端末6の表示制御部67は、分散データ処理端末6のディスプレイ517上に、ステップS91で受信された類似度に基づいて、照合結果を表示させる(ステップS92)。   Next, the display control unit 67 of the distributed data processing terminal 6 displays a matching result on the display 517 of the distributed data processing terminal 6 based on the similarity received in step S91 (step S92).

〔b〕顔ぼかし処理パターン1の例
図24は、実時間データ処理端末3の設定に処理設定テーブル(図12(b))を用いた場合の物体ぼかしサービスの処理を示したシーケンス図である。図26は、分散データ処理端末における画像の表示例を示した図である。
[B] Example of Face Blur Processing Pattern 1 FIG. 24 is a sequence diagram showing the processing of the object blur service when the processing setting table (FIG. 12B) is used for setting the real-time data processing terminal 3. . FIG. 26 is a diagram showing a display example of an image on the distributed data processing terminal.

まず、撮像ユニット40により撮像されることで撮像画像データが生成され、実時間データ処理端末3の接続部38は、撮像ユニット40から撮像画像データを取得する(ステップS101)。物体(顔)ぼかしサービスの場合、インターバル撮像機能等が用いられる。   First, captured image data is generated by being captured by the imaging unit 40, and the connection unit 38 of the real-time data processing terminal 3 acquires captured image data from the imaging unit 40 (step S101). In the case of an object (face) blur service, an interval imaging function or the like is used.

次に、実時間データ処理端末3の画像処理部34は、撮像画像データに対して射影方式変換を行なう(ステップS102)。この場合、画像処理部34は、撮像ユニット40により得られる等距離射影から、上述の既に設定されている正距円筒射影への変換を行なう。   Next, the image processing unit 34 of the real-time data processing terminal 3 performs projection method conversion on the captured image data (step S102). In this case, the image processing unit 34 performs conversion from the equidistant projection obtained by the imaging unit 40 to the above-mentioned equirectangular projection described above.

画像処理部34は、ぼかし処理前の撮像画像データの符号化(エンコード)を行う(ステップS103)。   The image processing unit 34 encodes the captured image data before the blurring process (step S103).

実時間データ処理端末3の通信部48は、近端末データ処理装置5の通信部58に対して、撮像の処理完了通知を送信する(ステップS104)。この処理完了通知には、ステップS103で符号化された撮像画像データが含まれる。これにより、近端末データ処理装置5の通信部58は、処理完了通知を受信する。   The communication unit 48 of the real-time data processing terminal 3 transmits an imaging process completion notification to the communication unit 58 of the near-terminal data processing device 5 (step S104). This processing completion notification includes the captured image data encoded in step S103. Thereby, the communication unit 58 of the near-terminal data processing device 5 receives the processing completion notification.

近端末データ処理装置5の送受信51は、分散データ処理端末6に対して、撮像の処理完了通知を送信する(ステップS105)。この処理完了通知には、ステップS104で受信された撮影画像データが含まれる。これにより、分散データ処理端末6の送受信部61は、処理完了通知を受信する。   The transmission / reception 51 of the near-terminal data processing device 5 transmits an imaging process completion notification to the distributed data processing terminal 6 (step S105). This processing completion notification includes the captured image data received in step S104. Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the processing completion notification.

次に、分散データ処理端末6の送受信部61は、集中データ処理サーバ7に対して、撮像の処理完了通知を送信する(ステップS106)。この処理完了通知には、ステップS105で受信された撮影画像データが含まれる。これにより、集中データ処理サーバ7の送受信部71は、処理完了通知を受信する。   Next, the transmission / reception unit 61 of the distributed data processing terminal 6 transmits an imaging process completion notification to the centralized data processing server 7 (step S106). This processing completion notification includes the captured image data received in step S105. Thereby, the transmission / reception unit 71 of the centralized data processing server 7 receives the processing completion notification.

集中データ処理サーバ7の物体検出部76は、撮像画像データに対して物体(顔)の検出処理を行なう(ステップS107)。この処理で物体(顔)が検出された場合は、集中データ処理サーバ7のぼかし処理部77は、検出された物体(顔)の部分画像である物体領域矩形画像に対して、ぼかし処理を行なう(ステップS108)。最後に、集中データ処理サーバ7の記憶・読出部79は、ぼかし処理後の撮影画像データを記憶部7000へ記憶する(ステップS109)。なお、ぼかし処理後の撮影画像データには、図26に示されているように、ぼかし処理された領域部分(物体領域矩形画像部分)と、この部分以外の撮像画像内のぼかし処理されていない領域部分(胸部分及び背景部分)とが含まれている。   The object detection unit 76 of the centralized data processing server 7 performs an object (face) detection process on the captured image data (step S107). When an object (face) is detected in this process, the blurring processing unit 77 of the centralized data processing server 7 performs a blurring process on the object area rectangular image that is a partial image of the detected object (face). (Step S108). Finally, the storage / reading unit 79 of the centralized data processing server 7 stores the captured image data after the blurring process in the storage unit 7000 (step S109). Note that, as shown in FIG. 26, the captured image data after the blurring process is not subjected to the blurring process in the blurred area part (object area rectangular image part) and the captured image other than this part. An area part (chest part and background part) is included.

〔c〕顔ぼかし処理パターン2の例
図25は実時間データ処理端末3の設定に処理設定テーブル(図12(c))を用いた場合の物体ぼかしサービスの処理を示したシーケンスである。
[C] Example of Face Blur Processing Pattern 2 FIG. 25 is a sequence showing the processing of the object blur service when the processing setting table (FIG. 12C) is used for setting the real time data processing terminal 3.

まず、撮像ユニット40により撮像されることで撮像画像データが生成され、実時間データ処理端末3の接続部38は、撮像ユニット40から撮像画像データを取得する(ステップS121)。物体ぼかしサービスの場合、インターバル撮像機能等が用いられる。   First, captured image data is generated by being captured by the imaging unit 40, and the connection unit 38 of the real-time data processing terminal 3 acquires captured image data from the imaging unit 40 (step S121). In the case of the object blurring service, an interval imaging function or the like is used.

次に、実時間データ処理端末3の物体検出部35は、撮像画像に対して物体(ここでは、顔)の検出処理を行なう(ステップ122)。この処理で物体(顔)が検出された場合は、実時間データ処理端末3のぼかし処理部47は、検出された物体(顔)の部分画像である物体領域矩形画像に対して、ぼかし処理を行なう(ステップS123)。   Next, the object detection unit 35 of the real-time data processing terminal 3 performs object (here, face) detection processing on the captured image (step 122). When an object (face) is detected in this process, the blurring processing unit 47 of the real-time data processing terminal 3 performs a blurring process on the object region rectangular image that is a partial image of the detected object (face). This is performed (step S123).

次に、実時間データ処理端末3の画像処理部34は、ぼかし処理後の撮像画像データに対して射影方式変換を行なう(ステップS124)。この場合、画像処理部34は、撮像ユニット40により得られる等距離射影から、上述の既に設定されている正距円筒射影への変換を行なう。なお、ぼかし処理後の撮影画像データには、図26に示されているように、ぼかし処理された領域部分(物体領域矩形画像部分)と、この部分以外の撮像画像内のぼかし処理されていない領域部分(胸部分及び背景部分)とが含まれている。   Next, the image processing unit 34 of the real-time data processing terminal 3 performs projection method conversion on the captured image data after the blurring process (step S124). In this case, the image processing unit 34 performs conversion from the equidistant projection obtained by the imaging unit 40 to the above-mentioned equirectangular projection described above. Note that, as shown in FIG. 26, the captured image data after the blurring process is not subjected to the blurring process in the blurred area part (object area rectangular image part) and the captured image other than this part. An area part (chest part and background part) is included.

画像処理部34は、物体(顔)の部分画像データ(被照合データ)の符号化(エンコード)を行う(ステップS125)。   The image processing unit 34 encodes (encodes) the partial image data (data to be verified) of the object (face) (step S125).

実時間データ処理端末3の通信部48は、近端末データ処理装置5の通信部58に対して、撮像の処理完了通知を送信する(ステップS126)。この処理完了通知には、ステップS125で符号化された、ぼかし処理後の撮像画像データが含まれる。これにより、近端末データ処理装置5の通信部58は、処理完了通知を受信する。   The communication unit 48 of the real-time data processing terminal 3 transmits an imaging process completion notification to the communication unit 58 of the near-terminal data processing device 5 (step S126). This processing completion notification includes the captured image data after the blurring process encoded in step S125. Thereby, the communication unit 58 of the near-terminal data processing device 5 receives the processing completion notification.

近端末データ処理装置5の送受信51は、分散データ処理端末6に対して、撮像の処理完了通知を送信する(ステップS127)。この処理完了通知には、ステップS126で受信された、ぼかし処理後の撮影画像データが含まれる。これにより、分散データ処理端末6の送受信部61は、処理完了通知を受信する。   The transmission / reception 51 of the near-terminal data processing device 5 transmits an imaging process completion notification to the distributed data processing terminal 6 (step S127). This processing completion notification includes the captured image data after the blurring process received in step S126. Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the processing completion notification.

次に、分散データ処理端末6の送受信部61は、集中データ処理サーバ7に対して、撮像の処理完了通知を送信する(ステップS128)。この処理完了通知には、ステップS127で受信された、ぼかし処理後の撮影画像データが含まれる。これにより、集中データ処理サーバ7の送受信部71は、処理完了通知を受信する。最後に、集中データ処理サーバ7の記憶・読出部79は、ぼかし処理後の画像データを記憶部7000へ記憶する(ステップS109)。   Next, the transmission / reception unit 61 of the distributed data processing terminal 6 transmits an imaging process completion notification to the centralized data processing server 7 (step S128). This processing completion notification includes the captured image data after the blurring process received in step S127. Thereby, the transmission / reception unit 71 of the centralized data processing server 7 receives the processing completion notification. Finally, the storage / reading unit 79 of the centralized data processing server 7 stores the image data after the blurring process in the storage unit 7000 (step S109).

以上のように、集中データ処理サーバ7の性能が比較的に高い場合は、集中データ処理サーバ7が物体ぼかし処理を実行する(図24参照)。これに対して、集中データ処理サーバ7の性能が比較的に低い場合は、実時間データ処理端末3が物体ぼかし処理を実行する(図25参照)。   As described above, when the performance of the centralized data processing server 7 is relatively high, the centralized data processing server 7 executes the object blurring process (see FIG. 24). On the other hand, when the performance of the central data processing server 7 is relatively low, the real-time data processing terminal 3 executes the object blurring process (see FIG. 25).

また、集中データ処理サーバ7が、サービスに対応する処理情報管理DB7001を備えているため、集中データ処理サーバ7を管理する管理者にとっては、処理情報管理DB7001の管理や運営がしやすいというメリットがある。   Further, since the central data processing server 7 includes the processing information management DB 7001 corresponding to the service, there is a merit that the manager who manages the central data processing server 7 can easily manage and operate the processing information management DB 7001. is there.

〔実施形態の主な効果〕
以上説明したように本実施形態によれば、魚眼カメラ等の撮像により得られた撮像画像データを用いて行なう後処理の目的(顔認識、顔ぼかし等)の変更や、後処理を実行するサーバ等の性能の違いがあっても、画像取得端末2側と集中データ処理サーバ7側で処理分担を変更することができるため、利用者の様々なニーズに対応できるという効果を奏する。
[Main effects of the embodiment]
As described above, according to the present embodiment, the purpose of post-processing (face recognition, face blurring, etc.) performed using captured image data obtained by imaging with a fisheye camera or the like, or post-processing is executed. Even if there is a difference in performance of the server or the like, since the processing sharing can be changed between the image acquisition terminal 2 side and the central data processing server 7 side, there is an effect that various needs of users can be met.

例えば、サービスが物体認識サービスの場合(図11(d)、図23参照)、画像取得端末2の実時間データ処理端末3が、物体検出(S81参照)、射影方式変換(S82参照)、及びリサイズ(S83参照)まで行うことで、集中データ処理サーバ7は、照合処理(S89参照)を行えば済む。これにより、集中データ処理サーバ7の性能が比較的低くても、サービス提供サーバ8による物体認識サービスの提供が可能となる。   For example, when the service is an object recognition service (see FIGS. 11D and 23), the real-time data processing terminal 3 of the image acquisition terminal 2 performs object detection (see S81), projection method conversion (see S82), and By performing up to resizing (see S83), the centralized data processing server 7 has only to perform the matching process (see S89). Thereby, even if the performance of the centralized data processing server 7 is relatively low, the service providing server 8 can provide the object recognition service.

また、サービスが物体ぼかしサービス(パターン1)の場合(図11(d)、図24参照)、分散データ処理端末6が、撮像画像から物体検出(S107参照)、及びぼかし処理(S108参照)まで行うことで、画像取得端末2は、撮像画像データの送信(S105参照)を行えば済む。これにより、画像取得端末2の性能が比較的低くても、サービス提供サーバ8による物体ぼかしサービスの提供が可能となる。   When the service is the object blurring service (pattern 1) (see FIG. 11D and FIG. 24), the distributed data processing terminal 6 performs the process from the captured image to object detection (see S107) and blurring processing (see S108). By doing so, the image acquisition terminal 2 only needs to transmit the captured image data (see S105). Thereby, even if the performance of the image acquisition terminal 2 is relatively low, the service providing server 8 can provide the object blurring service.

更に、サービスが物体ぼかしサービス(パターン2)の場合(図11(d)、図25参照)、
画像取得端末2側の実時間データ処理端末3が、撮像画像から物体検出(S124参照)、及びぼかし処理(S125参照)まで行うことで、分散データ処理端末6は、ぼかし処理さえた後の画像データの記憶(S131参照)を行えば済む。これにより、集中データ処理サーバ7の性能が比較的低くても、サービス提供サーバ8による物体ぼかしサービスの提供が可能となる。
Further, when the service is an object blurring service (pattern 2) (see FIG. 11D and FIG. 25),
The real-time data processing terminal 3 on the image acquisition terminal 2 side performs from the captured image to the object detection (see S124) and the blurring process (see S125), so that the distributed data processing terminal 6 performs the blurring process. Data storage (see S131) is sufficient. Thereby, even if the performance of the centralized data processing server 7 is relatively low, the object providing service can be provided by the service providing server 8.

また、画像取得端末2の実時間データ処理端末3が撮像画像データの射影方式を変換することで(S82,S102,S126)、魚眼レンズで撮像したときに歪みを補正して閲覧時の違和感を低減することができる。   In addition, the real-time data processing terminal 3 of the image acquisition terminal 2 converts the projection method of the captured image data (S82, S102, S126), thereby correcting the distortion when captured with the fisheye lens and reducing the uncomfortable feeling during browsing. can do.

●第2の実施形態
続いて、図27及び図28を用いて、第2の実施形態について説明する。本実施形態は、第1の実施形態におけるステップS61〜S69の別の処理例を示す。なお、他の処理、ハードウェア構成、及び機能構成は、第1の実施形態と同様であるため、これらの説明を省略する。
Second Embodiment Subsequently, a second embodiment will be described with reference to FIGS. This embodiment shows another processing example of steps S61 to S69 in the first embodiment. Since other processes, hardware configuration, and functional configuration are the same as those in the first embodiment, description thereof is omitted.

第1の実施形態では、集中データ処理サーバ7の記憶部7000に処理情報管理DB7001が記憶されているが、第2の実施形態では、集中データ処理サーバ7の記憶部7000に処理情報管理DB7001が記憶されていない。この代わりに、近端末データ処理装置5の記憶部5000に、図27に示されているテーブルで構成された処理情報管理DBが記憶されている。   In the first embodiment, the processing information management DB 7001 is stored in the storage unit 7000 of the centralized data processing server 7. However, in the second embodiment, the processing information management DB 7001 is stored in the storage unit 7000 of the centralized data processing server 7. Not remembered. Instead, a processing information management DB composed of the table shown in FIG. 27 is stored in the storage unit 5000 of the near-terminal data processing device 5.

(処理情報テーブル)
図27に示されている各テーブルは近端末データ処理装置5の記憶部5000に保存されており、集中データ処理サーバ7が行なう処理内容を管理するためのテーブルである。図27(a)、(b)は、物体ぼかしサービス実行に特化したテーブルである。これらのテーブルにより、集中データ処理サーバに物体ぼかし処理を実行させるか否か(ON/OFF)、ぼかし処理後の撮影画像データを保存させるか否か(ON/OFF)を設定することができる。
(Processing information table)
Each table shown in FIG. 27 is stored in the storage unit 5000 of the near-terminal data processing device 5 and is a table for managing the processing contents performed by the centralized data processing server 7. FIGS. 27A and 27B are tables specialized for executing the object blurring service. With these tables, it is possible to set whether or not to cause the central data processing server to execute the object blurring process (ON / OFF) and whether to save the captured image data after the blurring process (ON / OFF).

実時間データ処理端末3の処理能力が比較的高い場合には、予め記憶部5000には、図27(a)のテーブルが管理されている。一方、実時間データ処理端末3の処理能力が比較的低い場合には、予め記憶部5000には、図27(c)のテーブルが管理されている。   When the processing capability of the real time data processing terminal 3 is relatively high, the table of FIG. 27A is managed in the storage unit 5000 in advance. On the other hand, when the processing capability of the real-time data processing terminal 3 is relatively low, the table in FIG. 27C is managed in the storage unit 5000 in advance.

(サービスの起動処理)
まず、分散データ処理端末6では、受付部62が利用者からサービスの開始要求を受け付ける(ステップS161)。この場合、分散データ処理端末6のGUI(Graphical User Interface)が利用される。
(Service startup processing)
First, in the distributed data processing terminal 6, the receiving unit 62 receives a service start request from the user (step S161). In this case, the GUI (Graphical User Interface) of the distributed data processing terminal 6 is used.

次に、分散データ処理端末6の送受信部61は、近端末データ処理装置5に対して、処理情報の要求を送信する(ステップS162)。この場合、開始するサービスを特定するためのサービス名称が送信される。これにより近端末データ処理装置5の送受信部51は、処理情報の要求を受信する。   Next, the transmission / reception unit 61 of the distributed data processing terminal 6 transmits a request for processing information to the near-terminal data processing device 5 (step S162). In this case, a service name for specifying the service to be started is transmitted. Thereby, the transmission / reception unit 51 of the near-terminal data processing device 5 receives the request for the processing information.

次に、近端末データ処理装置5の記憶・読出部59は、ステップS162で受信されたサービス名称を検索キーとして記憶部5000を検索することにより、対応する処理情報を読み出す(ステップS163)。   Next, the storage / reading unit 59 of the near-terminal data processing device 5 reads the corresponding processing information by searching the storage unit 5000 using the service name received in step S162 as a search key (step S163).

近端末データ処理装置5の送受信部51は、分散データ処理端末6に対して処理情報の通知を送信する(ステップS164)。この処理情報の通知には、上記ステップS163で読み出された処理情報(図27のテーブルの情報)が含まれている。これにより分散データ処理端末6の送受信部61は処理情報の通知を受信する。   The transmitter / receiver 51 of the near-terminal data processing device 5 transmits processing information notification to the distributed data processing terminal 6 (step S164). This processing information notification includes the processing information (information in the table of FIG. 27) read in step S163. Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the notification of the processing information.

次に、分散データ処理端末6の送受信部61は、集中データ処理サーバ7に対してサービス準備要求を送信する(ステップS165)。この場合、開始するサービスを特定するためのサービス名称と、ステップS164で受信された処理情報が送信される。これにより、集中データ処理サーバ7の送受信部71は、サービス準備要求を受信する。   Next, the transmission / reception unit 61 of the distributed data processing terminal 6 transmits a service preparation request to the centralized data processing server 7 (step S165). In this case, the service name for specifying the service to be started and the processing information received in step S164 are transmitted. Thereby, the transmission / reception unit 71 of the centralized data processing server 7 receives the service preparation request.

次に、集中データ処理サーバ7の記憶・読出部79は、処理情報に従い、各種設定を行う(ステップS166)。具体的には、物体ぼかし処理の有効(ON)又は無効(OFF)、画像保存の有効(ON)又は無効(OFF)の設定である。   Next, the storage / reading unit 79 of the centralized data processing server 7 performs various settings according to the processing information (step S166). Specifically, the setting is valid (ON) or invalid (OFF) of the object blurring process, and valid (ON) or invalid (OFF) of the image storage.

次に、集中データ処理サーバ7の送受信部71は、分散データ処理端末6に対して、サービス準備完了通知を送信する(ステップS167)。これにより、分散データ処理端末6の送受信部61は、サービス準備完了通知を受信する。以降の処理は、図22のステップS69以降の処理と同一であるため、その説明を省略する。   Next, the transmission / reception unit 71 of the centralized data processing server 7 transmits a service preparation completion notification to the distributed data processing terminal 6 (step S167). Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the service preparation completion notification. Since the subsequent processing is the same as the processing after step S69 in FIG. 22, the description thereof is omitted.

また、サービス実行中に実時間データ処理端末3や、集中データ処理サーバ7が実行する処理の設定と、処理については、上述した集中データ処理サーバ7が処理情報テーブルを備える場合と同等であるが、以下、簡便に説明する。   Further, the setting of the processing executed by the real-time data processing terminal 3 or the central data processing server 7 during the service execution and the processing are the same as the case where the central data processing server 7 includes the processing information table. Hereinafter, a simple description will be given.

即ち、ステップS166において図27(a)に示される処理情報(テーブルの情報)が設定される場合には、図24に示されている処理が実行される。一方、ステップS166において図27(b)に示される処理情報(テーブルの情報)が設定される場合には、図25に示されている処理が実行される。   That is, when the processing information (table information) shown in FIG. 27A is set in step S166, the processing shown in FIG. 24 is executed. On the other hand, when the processing information (table information) shown in FIG. 27B is set in step S166, the processing shown in FIG. 25 is executed.

なお、この実施形態の例では、近端末データ処理装置5において、サービスに対応する処理情報テーブルを備えている場合を説明した。システムを管理する管理者にとっては、集中データ処理サーバで管理するよりも、管理や運営でのメリットは低減する。しかしながら、集中データ処理サーバへの負荷が軽減され、個々の近端末データ処理装置5で管理することにより、実時間データ処理端末3の処理能力に応じて希望する処理内容を柔軟に変更することなどができるようになる。   In the example of this embodiment, a case has been described in which the near-terminal data processing device 5 includes a processing information table corresponding to a service. For the administrator who manages the system, the merit in management and operation is less than that in the centralized data processing server. However, the load on the centralized data processing server is reduced, and the desired processing content can be flexibly changed according to the processing capability of the real-time data processing terminal 3 by being managed by the individual near-terminal data processing devices 5. Will be able to.

●補足
上記実施形態では、射影方式の変換は、画像取得端末2の実時間データ処理端末3が行っているが、集中データ処理サーバ7側で行ってもよい。
Supplementary Note In the above embodiment, the projection method conversion is performed by the real-time data processing terminal 3 of the image acquisition terminal 2, but may be performed by the centralized data processing server 7 side.

また、上記各実施形態では、撮像画像データについて説明したが、これに限らず、撮像されずに利用者によって作成された作成画像データであってもよい。この場合、撮像画像データ及び作成画像データは、「画像データ」の一例である。また。画像取得端末2は、通信端末の一例であり、画像データを外部から取得せず、自端末で作成してもよい。更に、通信端末は、集音により音データを取得してもよいし、温度センサにより温度データを取得してもよいし、湿度センサにより湿度データを取得してもよい。   In each of the above embodiments, the captured image data has been described. However, the present invention is not limited to this, and may be generated image data created by a user without being captured. In this case, the captured image data and the created image data are examples of “image data”. Also. The image acquisition terminal 2 is an example of a communication terminal, and may be created by the own terminal without acquiring image data from the outside. Furthermore, the communication terminal may acquire sound data by collecting sound, may acquire temperature data by a temperature sensor, or may acquire humidity data by a humidity sensor.

また、各CPU301,501,701等の各構成要素は、単一であってもよく複数であってもよい。また、画像取得端末2、分散データ処理端末6、及び集中データ処理サーバ7は、それぞれ複数あってもよい。更に、分散データ処理端末6はサーバであってもよい。   Moreover, each component, such as each CPU 301, 501, 701, etc. may be single or plural. Further, there may be a plurality of image acquisition terminals 2, distributed data processing terminals 6, and centralized data processing servers 7, respectively. Further, the distributed data processing terminal 6 may be a server.

また、上述の実施形態における各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC(Application Specific Integrated
Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU、及び従来の回路モジュール等のデバイスを含む。
Further, each function in the above-described embodiment can be realized by one or a plurality of processing circuits. Here, the `` processing circuit '' in the present embodiment is a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, or an ASIC (designed to execute each function described above). Application Specific Integrated
Circuit, DSP (digital signal processor), FPGA (field programmable gate array), SOC (System on a chip), GPU, and devices such as conventional circuit modules.

2 画像取得端末(通信端末の一例)
3 実時間データ処理端末
5 近端末データ処理装置
6 分散データ処理端末
7 集中データ処理サーバ
34 画像処理部(画像処理手段の一例)
35 物体検出部(物体検出手段の一例)
38 接続部(取得手段の一例)
47 ぼかし処理部(ぼかし処理手段の一例)
51 送受信部
61 送受信部
62 受付部
67 表示制御部
69 記憶・読出部
71 送受信部
74 特徴量生成部
75 照合部
76 物体検出部(物体検出手段の一例)
77 ぼかし処理部(ぼかし処理手段の一例)
200 イントラネット
600 インターネット
3001 撮像素子情報管理DB(撮像素子情報管理手段の一例)
3002 サイクル値管理DB
3003 画像取得プログラムDB
3004 合成処理プログラム管理DB
3005 歪み補正プログラム管理DB
3006 サービスプログラム管理DB(プログラム管理手段の一例)
6000 記憶部
6001 照合データ管理DB
8000 記憶部
8001 セッション管理DB
8002 認証サーバ管理DB
9000 記憶部
9001 認証管理DB
2 Image acquisition terminal (an example of a communication terminal)
3 Real-time data processing terminal 5 Near-terminal data processing device 6 Distributed data processing terminal 7 Centralized data processing server 34 Image processing unit (an example of image processing means)
35 Object detection unit (an example of object detection means)
38 connection part (an example of an acquisition means)
47 Blur processor (an example of blur processor)
51 Transmission / Reception Unit 61 Transmission / Reception Unit 62 Reception Unit 67 Display Control Unit 69 Storage / Reading Unit 71 Transmission / Reception Unit 74 Feature Quantity Generation Unit 75 Collation Unit 76 Object Detection Unit (Example of Object Detection Unit)
77 Blur processor (an example of blur processor)
200 Intranet 600 Internet 3001 Image sensor information management DB (an example of image sensor information management means)
3002 Cycle value management DB
3003 Image acquisition program DB
3004 Composition processing program management DB
3005 Distortion correction program management DB
3006 Service program management DB (an example of program management means)
6000 storage unit 6001 collation data management DB
8000 storage unit 8001 session management DB
8002 Authentication server management DB
9000 storage unit 9001 authentication management DB

特表2016−519812号公報Special table 2006-519812 gazette

Claims (9)

通信ネットワークを介してサービスを提供するサービス提供サーバと、
所定の画像処理により生成された撮像画像のデータを得る画像取得端末と、
前記画像データに対して所定の画像処理を行う集中データ処理サーバと、
前記画像取得端末と前記集中データ処理サーバとを仲介する分散データ処理端末と、を有する通信システムであって、
前記分散データ処理端末は、前記サービス提供サーバから提供されるサービスに関連付けて、
前記画像取得端末または前記集中データ処理サーバのどちらか一方に対する画像処理内容を他方へ要求後に応答として得られる画像処理内容を前記一方へ送信し、前記画像取得端末の画像処理後に受信した画像データを前記分散データ処理端末に送信することにより、前記サービスに対する画像処理を前記集中データ処理サーバに処理させる送受信手段を有することを特徴とする通信システム。
A service providing server for providing a service via a communication network;
An image acquisition terminal for obtaining captured image data generated by predetermined image processing;
A centralized data processing server that performs predetermined image processing on the image data;
A distributed data processing terminal that mediates between the image acquisition terminal and the centralized data processing server,
The distributed data processing terminal is associated with a service provided from the service providing server,
The image processing content obtained as a response after requesting the image processing content for either the image acquisition terminal or the centralized data processing server to the other is transmitted to the one, and the image data received after the image processing of the image acquisition terminal is received. A communication system comprising transmission / reception means for causing the centralized data processing server to process image processing for the service by transmitting to the distributed data processing terminal.
前記サービスは物体認識サービスであり、前記分散データ処理端末の送受信手段が、前記画像取得端末に対する画像処理内容を前記集中データ処理サーバに対して要求した場合の当該画像処理内容は、少なくとも物体検出と射影方式変換とリサイズを含み、前記受信した画像データに対する物体認識を前記集中データ処理サーバが処理することを特徴とする請求項1記載の通信システムである。   The service is an object recognition service, and when the transmission / reception unit of the distributed data processing terminal requests the centralized data processing server for image processing content for the image acquisition terminal, the image processing content is at least object detection. 2. The communication system according to claim 1, wherein the central data processing server processes object recognition for the received image data, including projection method conversion and resizing. 前記サービスは物体ぼかしサービスであり、前記分散データ処理端末の送受信手段が、前記画像取得端末に対する画像処理内容を前記集中データ処理サーバに対して要求した場合の当該画像処理内容は、少なくとも物体検出とぼかし処理とを含み、前記受信した画像データに対する保存処理を前記集中データ処理サーバが処理することを特徴とする請求項1記載の通信システム。   The service is an object blurring service, and when the transmission / reception means of the distributed data processing terminal requests the centralized data processing server for image processing content for the image acquisition terminal, the image processing content is at least object detection. The communication system according to claim 1, wherein the centralized data processing server performs a storage process for the received image data. 前記サービスは物体ぼかしサービスであり、前記分散データ処理端末の送受信手段が、前記画像取得端末に対する画像処理内容を前記集中データ処理サーバに対して要求した場合の当該画像処理内容は、前記受信した画像データに対する物体検出と物体ぼかしと保存処理を前記集中データ処理サーバが処理することを特徴とする請求項1記載の通信システム。   The service is an object blurring service, and when the transmission / reception unit of the distributed data processing terminal requests the centralized data processing server for the image processing content for the image acquisition terminal, the image processing content is the received image 2. The communication system according to claim 1, wherein the central data processing server processes object detection, object blurring, and storage processing for data. 前記画像取得端末に対する画像処理内容は射影方式変換をさらに追加することを特徴とする請求項3または4記載の通信システム。   5. The communication system according to claim 3, wherein the image processing content for the image acquisition terminal further adds projection method conversion. 前記サービスは物体ぼかしサービスであり、前記分散データ処理端末の送受信手段が、前記集中データ処理サーバに対する画像処理内容を前記画像取得端末に対して要求した場合の当該画像処理内容は保存処理を含み、前記画像取得端末から受信した画像データに対して、少なくとも物体検出と物体ぼかしの画像処理が施されていることを特徴とする請求項1記載の通信システム。   The service is an object blur service, and the image processing content when the transmission / reception unit of the distributed data processing terminal requests image processing content for the centralized data processing server to the image acquisition terminal includes storage processing, The communication system according to claim 1, wherein at least image detection and object blurring are performed on the image data received from the image acquisition terminal. 前記サービスは物体ぼかしサービスであり、前記分散データ処理端末の送受信手段が、前記集中データ処理サーバに対する画像処理内容を前記画像取得端末に対して要求した場合の当該画像処理内容は物体ぼかしと保存処理を含み、前記画像取得端末から受信した画像データに対して、少なくとも物体検出の画像処理が施されていることを特徴とする請求項1記載の通信システム。   The service is an object blur service, and the image processing content when the transmission / reception means of the distributed data processing terminal requests the image acquisition terminal to perform image processing on the centralized data processing server is object blurring and storage processing The communication system according to claim 1, wherein at least image processing for object detection is performed on the image data received from the image acquisition terminal. 前記前記画像取得端末から受信した画像データに対して、さらに射影方式変換処理が追加されていることを特徴とした請求項6または7記載の通信システム。   8. The communication system according to claim 6, wherein a projection system conversion process is further added to the image data received from the image acquisition terminal. 通信ネットワークを介してサービスを提供するサービス提供サーバと、
所定の画像処理により生成された撮像画像のデータを得る画像取得端末と、
前記画像データに対して所定の画像処理を行う集中データ処理サーバと、
前記画像取得端末と前記集中データ処理サーバとを仲介する分散データ処理端末と、を有する通信システムが実行する通信方法であって、
前記分散データ処理端末は、前記サービス提供サーバから提供されるサービスに関連付けて、
前記画像取得端末または前記集中データ処理サーバのどちらか一方に対する画像処理内容を他方へ要求後に応答として得られる画像処理内容を前記一方へ送信し、前記画像取得端末の画像処理後に受信した画像データを前記分散データ処理端末に送信することにより、前記サービスに対する画像処理を前記集中データ処理サーバに処理させることを特徴とする通信方法。
A service providing server for providing a service via a communication network;
An image acquisition terminal for obtaining captured image data generated by predetermined image processing;
A centralized data processing server that performs predetermined image processing on the image data;
A communication method executed by a communication system having a distributed data processing terminal that mediates between the image acquisition terminal and the centralized data processing server,
The distributed data processing terminal is associated with a service provided from the service providing server,
The image processing content obtained as a response after requesting the image processing content for either the image acquisition terminal or the centralized data processing server to the other is transmitted to the one, and the image data received after the image processing of the image acquisition terminal is received. A communication method characterized by causing the centralized data processing server to process image processing for the service by transmitting to the distributed data processing terminal.
JP2019056527A 2018-03-29 2019-03-25 Communication system and communication method Active JP7251247B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/366,422 US10931836B2 (en) 2018-03-29 2019-03-27 Communication system, image processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018064787 2018-03-29
JP2018064787 2018-03-29

Publications (2)

Publication Number Publication Date
JP2019176471A true JP2019176471A (en) 2019-10-10
JP7251247B2 JP7251247B2 (en) 2023-04-04

Family

ID=68168986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019056527A Active JP7251247B2 (en) 2018-03-29 2019-03-25 Communication system and communication method

Country Status (1)

Country Link
JP (1) JP7251247B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076172A (en) * 1998-08-28 2000-03-14 Toshiba Corp Distributed system
JP2002170110A (en) * 2000-09-22 2002-06-14 Seiko Epson Corp Image processing method
WO2012169232A1 (en) * 2011-06-08 2012-12-13 オムロン株式会社 Distributed image processing system
JP2016024471A (en) * 2014-07-16 2016-02-08 富士フイルム株式会社 Image processing system, client, image processing method, program, and recording medium
JP2018011327A (en) * 2013-02-28 2018-01-18 株式会社ニコン Electronic apparatus and display method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076172A (en) * 1998-08-28 2000-03-14 Toshiba Corp Distributed system
JP2002170110A (en) * 2000-09-22 2002-06-14 Seiko Epson Corp Image processing method
WO2012169232A1 (en) * 2011-06-08 2012-12-13 オムロン株式会社 Distributed image processing system
JP2018011327A (en) * 2013-02-28 2018-01-18 株式会社ニコン Electronic apparatus and display method
JP2016024471A (en) * 2014-07-16 2016-02-08 富士フイルム株式会社 Image processing system, client, image processing method, program, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image

Also Published As

Publication number Publication date
JP7251247B2 (en) 2023-04-04

Similar Documents

Publication Publication Date Title
US10915777B2 (en) Communication terminal, communication system, and image processing method
JP7582393B2 (en) Distributed processing system, communication system, image acquisition terminal, and distributed processing method
US20190306334A1 (en) Communication system, image processing method, and recording medium
JP7310105B2 (en) Communication terminal, communication system, image processing method, and program
US11025603B2 (en) Service providing system, service delivery system, service providing method, and non-transitory recording medium
US11128623B2 (en) Service providing system, service delivery system, service providing method, and non-transitory recording medium
JP6688485B2 (en) Service providing system, service transfer system, service providing method, and program
JP7251247B2 (en) Communication system and communication method
US11076010B2 (en) Service providing system, service delivery system, service providing method, and non-transitory recording medium
CN108885653B (en) Service providing system, service delivery system, service providing method and program
JP2019186914A (en) Communication terminal, communication system, communication method, and program
JP7358868B2 (en) Communication terminal, communication system, location management method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230306

R151 Written notification of patent or utility model registration

Ref document number: 7251247

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151