JP7553907B2 - Character recognition device, character recognition program, fisheries management support terminal device, and fisheries management support system - Google Patents
Character recognition device, character recognition program, fisheries management support terminal device, and fisheries management support system Download PDFInfo
- Publication number
- JP7553907B2 JP7553907B2 JP2020105309A JP2020105309A JP7553907B2 JP 7553907 B2 JP7553907 B2 JP 7553907B2 JP 2020105309 A JP2020105309 A JP 2020105309A JP 2020105309 A JP2020105309 A JP 2020105309A JP 7553907 B2 JP7553907 B2 JP 7553907B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- character
- character recognition
- display screen
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003860 storage Methods 0.000 claims description 34
- 238000001514 detection method Methods 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 23
- 230000002093 peripheral effect Effects 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 14
- 238000013136 deep learning model Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 9
- 239000000463 material Substances 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 16
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 15
- 238000000034 method Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 239000002131 composite material Substances 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000005266 casting Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 241000251468 Actinopterygii Species 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 238000001556 precipitation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000002079 cooperative effect Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000013535 sea water Substances 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
Images
Landscapes
- Character Input (AREA)
Description
本発明は、計測器に表示された文字を光学的に認識する文字認識装置および文字認識プログラムと、それを用いた漁業管理支援端末装置および漁業管理支援システムに関するものである。 The present invention relates to a character recognition device and a character recognition program that optically recognize characters displayed on a measuring instrument, and a fisheries management support terminal device and a fisheries management support system that use the same.
文字認識装置は、媒体に表記された文字をデジタルカメラにより静止画または動画などで光学的に読み取り、文字に対応した文字データを出力する。
媒体は、文字が手書された紙やコンピュータから文字印刷された紙などの他に、文字が表示された表示画面とすることができる。
A character recognition device optically reads characters written on a medium using a digital camera as a still image or video, and outputs character data corresponding to the characters.
The medium may be paper on which characters are handwritten or printed from a computer, or it may be a display screen on which characters are displayed.
例えば、特許文献1に記載の画像処理方法、画像処理用プログラムおよび情報管理システムは、測定器に表示される測定結果を撮影して得られた画像に含まれる7セグメントの数字画像に対して膨張処理及び収縮処理を施すことにより、複数のセグメント間の隙間を埋めることができることで、従来のOCRソフトウェアを用いても、7セグメントの数字画像から構成される測定結果から測定値を高い精度で認識することができるというものである。 For example, the image processing method, image processing program, and information management system described in Patent Document 1 apply expansion and contraction processes to a seven-segment number image contained in an image obtained by photographing the measurement result displayed on a measuring device, thereby filling in the gaps between multiple segments, making it possible to recognize measurement values with high accuracy from measurement results consisting of seven-segment number images, even when using conventional OCR software.
特許文献1に記載の従来の文字認識装置では、測定器として、土木施工において行われる土地に含まれる水分等を計測するRI(radioisotope)測定器を想定しているが、測定器は、他の種類の測定器であってもよいと記載されており、測定器が、例えば、ガス検知器、粉塵計や照度計等の環境測定器、温湿度計や雨量計等の気象観測機器、pH計や濁度計等の水質・土壌測定器を始めとする任意の測定器であってよいことが記載されている。
また、特許文献1に記載の従来の文字認識装置では、撮影した画像となる測定器の表示画面にユーザが写り込まないように、測定器の表示画面に穴が開いた箱をかぶせて、携帯端末の撮影部を穴の位置に合わせた状態で、表示画面を撮影してもよいと記載されている。
しかし、これでは、文字認識させるために撮影する度に、箱を被せる必要があり、操作が煩雑である。
とはいえ、測定器の表示画面に箱を被せずに表示画面を撮影して文字認識させようとすると、屋外では太陽の日差しが強いため、撮影者が写り込むだけでなく、周囲の様々なものからの反射光が写り込むおそれがある。また夜間などでは照明による光が写り込むおそれがある。そのため、認識の精度が低下してしまう。
In the conventional character recognition device described in Patent Document 1, the measuring instrument is assumed to be an RI (radioisotope) measuring instrument that measures moisture and the like contained in land during civil engineering work, but it is described that the measuring instrument may be other types of measuring instruments, and that the measuring instrument may be any measuring instrument, including, for example, a gas detector, an environmental measuring instrument such as a dust meter or a light meter, a meteorological observation instrument such as a thermo-hygrometer or a rain gauge, or a water quality/soil measuring instrument such as a pH meter or a turbidity meter.
Furthermore, in the conventional character recognition device described in Patent Document 1, it is also described that in order to prevent the user from being captured on the display screen of the measuring instrument, which becomes the captured image, a box with a hole in it can be placed over the display screen of the measuring instrument, and the display screen can be photographed with the camera unit of the mobile terminal aligned with the position of the hole.
However, this requires covering the character with a box every time a photograph is taken for character recognition, which is a cumbersome operation.
However, if you try to photograph the display screen of a measuring instrument without covering it with a box and perform character recognition, the strong sunlight outdoors can cause not only the photographer to be captured in the image, but also reflected light from various surrounding objects. Also, at night, there is a risk that light from lighting can be captured in the image. This reduces the accuracy of recognition.
そこで本発明は、表示画面に反射光の写り込みが生じても、精度良く文字認識させることを可能とすることで、厳しい環境でも使用できる文字認識装置、文字認識プログラム、漁業管理支援端末装置および漁業管理支援システムを提供することを目的とする。 The present invention aims to provide a character recognition device, a character recognition program, a fisheries management support terminal device, and a fisheries management support system that can be used in harsh environments by enabling accurate character recognition even when reflected light is caught on the display screen.
本発明の文字認識装置は、文字が表示された表示画面を撮影した撮影画像から前記文字を光学的に認識する文字認識装置であって、前記撮影画像から前記文字の文字色を示す第1色データ以外の画素の色データを第2色データに置換した2値画像を生成する2値化手段と、前記2値画像に含まれる前記第1色データにより示された文字を認識して文字情報として出力する認識手段とを備えたことを特徴としたものである。 The character recognition device of the present invention is a character recognition device that optically recognizes characters from a captured image of a display screen on which characters are displayed, and is characterized by comprising: a binarization means that generates a binary image in which color data of pixels other than first color data indicating the character color of the character from the captured image is replaced with second color data; and a recognition means that recognizes characters indicated by the first color data included in the binary image and outputs the characters as character information.
また、本発明の文字認識プログラムは、コンピュータを、文字が表示された表示画面を撮影した撮影画像から前記文字を光学的に認識する文字認識装置として機能させるものであり、前記撮影画像から前記文字の文字色を示す第1色データ以外の画素の色データを第2色データに置換した2値画像を生成する2値化手段、前記2値画像に含まれる前記第1色データにより示された文字を認識して文字情報として出力する認識手段として機能させることを特徴したものである。 The character recognition program of the present invention causes a computer to function as a character recognition device that optically recognizes characters from a captured image of a display screen on which characters are displayed, and is characterized by causing the computer to function as a binarization means that generates a binary image in which color data of pixels other than first color data indicating the character color of the character is replaced with second color data from the captured image, and a recognition means that recognizes characters indicated by the first color data included in the binary image and outputs them as character information.
本発明によれば、2値化手段が、撮影画像から文字の文字色を示す第1色データ以外の画素の色データを第2色データに置換した2値画像を生成するため、表示画面に表示された文字は第1色データ、反射光はその他と同じ第2色データとなるので、反射光を除去することができる。 According to the present invention, the binarization means generates a binary image by replacing the color data of pixels other than the first color data indicating the character color of the characters from the captured image with the second color data, so that the characters displayed on the display screen become the first color data and the reflected light becomes the same second color data as the rest, and the reflected light can be removed.
前記表示画面を撮影方向を変更しながら撮影した、複数枚の撮影画像または動画による撮影画像に基づいて、各画素から外れ値を除去して合成することで、前記文字への反射光および障害物の重畳が無い、または重畳が少ない撮影画像を生成する抽出手段を備えたものとすることができる。
撮影画像を、撮影方向を変更しながら撮影したものとすることで、最初の撮影画像の文字に反射光や障害物が重畳していても、撮影方向を移動しているうちに反射光や障害物が認識対象となる文字から外れ、文字に重畳しないようにすることができる。従って、抽出手段が複数枚の撮影画像または動画から、各画素から外れ値を除去して合成することで、文字への反射光や障害物の重畳が無い、または重畳が少ない撮影画像を抽出するので、文字認識の精度を更に向上させることができる。
The device may be equipped with an extraction means for generating a captured image in which there is no or minimal reflected light or overlapping of obstacles on the characters by removing outliers from each pixel and synthesizing the captured images based on multiple captured images or video images taken while changing the shooting direction of the display screen.
By taking the captured images while changing the shooting direction, even if reflected light or an obstacle is superimposed on the characters in the first captured image, the reflected light or obstacle will move away from the characters to be recognized as the shooting direction moves, and will not be superimposed on the characters. Therefore, the extraction means removes outliers from each pixel from multiple captured images or videos and combines them to extract captured images with no or minimal reflected light or obstacles superimposed on the characters, thereby further improving the accuracy of character recognition.
前記表示画面を撮影方向を変更しながら撮影した、複数枚の撮影画像または動画による撮影画像と、この撮影画像の画面領域を指定した領域指定済画像とにより、撮影方向に応じた撮影画像における画面領域を学習して構築した深層学習モデルに基づいて、撮影画像から前記表示画面の画面領域を推定する画面領域検出手段を備えたものとすることができる。
撮影方向を変更しながら撮影した撮影画像と、撮影画像の画面領域を指定した領域指定済画像とにより、撮影方向に応じた撮影画像における画面領域を学習して深層学習モデルを構築する。そして、画面領域検出手段が、この深層学習モデルに基づいて、撮影画像から表示画面の画面領域を推定する。そのため、撮影方向が正面でなくても、正確に表示画面の範囲を把握することができる。
The device may be provided with a screen area detection means for estimating the screen area of the display screen from a captured image based on a deep learning model constructed by learning the screen area in the captured image according to the shooting direction using a plurality of captured images or video images captured while changing the shooting direction of the display screen and an area-designated image in which the screen area of the captured image is designated.
A deep learning model is constructed by learning the screen area in the captured image according to the shooting direction from the captured image captured while changing the shooting direction and the area-specified image in which the screen area of the captured image is specified. Then, the screen area detection means estimates the screen area of the display screen from the captured image based on this deep learning model. Therefore, even if the shooting direction is not the front, the range of the display screen can be accurately grasped.
前記表示画面の周囲の額縁に、前記表示画面の範囲を認識させるための認識用部材が設けられ、前記認識用部材から前記撮影画像における前記表示画面の周囲枠を認識して、前記表示画面の画面領域を検出する画面領域検出手段を備えたものとすることができる。
画面領域検出手段が周囲枠を検出して、撮影画像から表示画面の画面領域を通知することで、表示画面を正面から撮影せずに、表示画面が歪んで撮影されたり、表示画面の周囲に背景が写り込んだりしていても、正確に表示画面の範囲を把握することができる。
A recognition member for recognizing the range of the display screen is provided in a frame around the display screen, and the device can be equipped with a screen area detection means for recognizing the peripheral frame of the display screen in the captured image from the recognition member and detecting the screen area of the display screen.
The screen area detection means detects the surrounding frame and notifies the screen area of the display screen from the photographed image, so that the range of the display screen can be accurately grasped even if the display screen is not photographed from the front, the display screen is photographed distorted, or the background is reflected around the display screen.
前記認識用部材は、再帰性反射材により形成された周囲枠であり、前記画面領域検出手段は、前記撮影画像における前記周囲枠からの反射光による仮想枠を検出して、前記仮想枠により囲まれた画面領域を通知するものとすることができる。
再帰性反射材により形成された周囲枠からの反射光により仮想枠を検出することで、仮想枠により囲まれた画面領域を検出することができる。
The recognition member can be a peripheral frame formed from a retroreflective material, and the screen area detection means can detect a virtual frame formed by reflected light from the peripheral frame in the captured image, and notify the screen area surrounded by the virtual frame.
By detecting the virtual frame using light reflected from a peripheral frame formed by a retroreflective material, it is possible to detect the screen area surrounded by the virtual frame.
前記認識用部材は、色テープにより形成された周囲枠であり、前記画面領域検出手段は、前記撮影画像における前記周囲枠の色による仮想枠を検出して、前記仮想枠により囲まれた画面領域を通知するものとすることができる。
色テープにより形成された周囲枠の色により仮想枠を検出することで、仮想枠により囲まれた画面領域を検出することができる。
The recognition member can be a peripheral frame formed by colored tape, and the screen area detection means can detect a virtual frame based on the color of the peripheral frame in the captured image, and notify the screen area surrounded by the virtual frame.
By detecting the virtual frame based on the color of the peripheral frame formed by the color tape, the screen area surrounded by the virtual frame can be detected.
前記認識用部材は、前記額縁の4箇所の角部に設けられた二次元バーコードであり、前記画面領域検出手段は、前記撮影画像における前記二次元バーコードの位置を認識し、前記二次元バーコード同士の位置を結ぶ仮想枠を検出して、前記仮想枠により囲まれた画面領域を通知するものとすることができる。
額縁の4箇所の角部に設けられた二次元バーコード同士の位置を結ぶ仮想枠を検出することで、仮想枠により囲まれた画面領域を検出することができる。
The recognition component can be a two-dimensional barcode provided at four corners of the frame, and the screen area detection means can recognize the position of the two-dimensional barcode in the captured image, detect a virtual frame connecting the positions of the two-dimensional barcodes, and notify the screen area surrounded by the virtual frame.
By detecting a virtual frame that connects the positions of the two-dimensional barcodes provided at the four corners of the frame, the screen area surrounded by the virtual frame can be detected.
前記表示画面に表示された認識対象の文字が含まれる領域が定義されたテンプレートが格納される記憶手段からテンプレートを読み出し、前記認識手段に指定するテンプレート指定手段を備えたものとすることができる。テンプレート指定手段がテンプレートにより指定された領域の文字を認識するため、必要な範囲の文字のみを認識することができる。 The device may include a template designation means for reading a template from a storage means in which a template is stored that defines an area including characters to be recognized and is displayed on the display screen, and designating the template for the recognition means. Since the template designation means recognizes characters in the area designated by the template, it is possible to recognize only the characters in the required range.
前記記憶手段には、表示手段の長さ方向が上下方向に沿った姿勢で撮影された縦長の撮影画像に対応する縦長用のテンプレートと、前記表示手段の長さ方向が左右方向に沿った姿勢で撮影された撮影画像に対応する横長用のテンプレートとが格納され、前記テンプレート指定手段は、前記縦長用のテンプレートと前記横長用のテンプレートとを、撮影姿勢に応じて切り替えるものとすることができる。そうすることで、撮影姿勢に好適なテンプレートを選択することができる。 The storage means stores a portrait template corresponding to a portrait image captured with the display means in a position where the length direction is along the up-down direction, and a landscape template corresponding to a portrait image captured with the display means in a position where the length direction is along the left-right direction, and the template designation means can switch between the portrait template and the landscape template depending on the shooting position. In this way, a template suitable for the shooting position can be selected.
前記テンプレートが格納され、電気通信回線を介して接続された文字認識支援サーバから、前記テンプレートを取得し、前記記憶手段に格納するテンプレート取得手段を備えたものとすることができる。
テンプレート取得手段が、電気通信回線を介して接続された文字認識支援サーバから、テンプレートを取得するので、テンプレートを最新のテンプレートとしたり、文字認識率が高い他人のテンプレートとしたりすることができる。
The apparatus may further comprise a template acquisition means for acquiring the template from a character recognition support server connected via a telecommunications line in which the template is stored, and storing the template in the storage means.
Since the template acquiring means acquires the template from a character recognition support server connected via an electric communication line, the template can be the latest template or another person's template with a high character recognition rate.
前記テンプレート指定手段は、前記記憶手段に格納された複数のテンプレートの中から、入力手段により選択されたテンプレートを、前記認識手段に指定するようにしたものとすることができる。そうすることで、操業者が考える文字認識に好適なテンプレートを選択することができる。 The template designation means can be configured to designate to the recognition means a template selected by the input means from among a plurality of templates stored in the storage means. In this way, the operator can select a template that is suitable for character recognition.
前記認識手段は、文字を認識したときの文字認識率を含む文字認識情報を生成するものとすることができる。文字認識に使用したテンプレートの文字認識率を把握することができるので、テンプレートの改善に寄与する。 The recognition means can generate character recognition information including the character recognition rate when a character is recognized. This can help improve the template by understanding the character recognition rate of the template used for character recognition.
前記文字認識情報には、テンプレートの使用日時を含むものとすることができる。使用日時によって、太陽光の影響や照明光の影響などが把握できるため、文字認識情報に、テンプレートの使用日時を含めれば、これらの影響に強いテンプレートを選択することができる。 The character recognition information can include the date and time the template was used. The date and time of use can be used to understand the effects of sunlight and lighting, so if the character recognition information includes the date and time the template was used, it is possible to select a template that is resistant to these effects.
前記文字認識情報を、電気通信回線を介して接続された文字認識支援サーバに通知する認識情報通知手段を備えたものとすることができる。文字認識支援サーバにより文字認識情報の収集ができるので、利便性を向上させることができる。 The device may be provided with a recognition information notification means for notifying the character recognition information to a character recognition support server connected via a telecommunications line. The character recognition support server can collect character recognition information, improving convenience.
前記認識情報通知手段は、入力画面に入力手段により入力された文字情報を、前記文字認識情報に含めて通知するものとすることができる。機械的な文字認識率だけでなく、入力手段によりコメントを文字情報としてフィードバックさせることができる。 The recognition information notification means can include character information input to the input screen by the input means in the character recognition information and notify the user. In addition to the mechanical character recognition rate, the input means can also feed back comments as character information.
本発明の漁業管理支援端末装置は、漁業者が搭乗した漁船に備え付けられた潮流計の表示画面を撮影する撮影手段と、前記表示画面を撮影した撮影画像から文字を光学的に認識して潮流情報を読み取る本発明の文字認識装置と、前記漁業者が操業した位置および日時を位置情報および日時情報として測位衛星からの信号に基づいて出力する測位手段と、前記漁業者が操業して得た漁獲量が記載された仕切書であり、産地市場が発行する仕切書に基づいて入力用端末装置から入力された漁獲量を示す漁獲量情報と前記位置情報および前記日時情報と、前記潮流情報とに基づいて漁獲成績報告書または操業日誌のいずれか一方または両方を生成する漁業管理支援サーバと通信する通信手段と、前記漁業管理支援サーバへ前記潮流情報、前記位置情報および前記日時情報を送信する情報送信手段とを備えたものとすることができる。 The fishery management support terminal device of the present invention may include an imaging means for imaging the display screen of a tidal current meter installed on a fishing boat on which a fisherman is aboard, a character recognition device of the present invention for optically recognizing characters from the image of the display screen to read tidal current information, a positioning means for outputting the location and date and time of the fisherman's operation as location information and date and time information based on a signal from a positioning satellite, a communication means for communicating with a fishery management support server that generates a fishing performance report or an operation logbook or both based on a list of catches indicating the amount of catches input from an input terminal device based on a list issued by a production market, the location information, the date and time information, and the tidal current information, which is an invoice listing the amount of catch obtained by the fisherman's operation, and the location information, the date and time information, and the tidal current information, and an information transmission means for transmitting the tidal current information, the location information, and the date and time information to the fishery management support server.
本発明の漁業管理支援システムは、本発明の文字認識装置により、漁業者が搭乗した漁船に備え付けられた潮流計の表示画面を撮影した撮影画像から文字を光学的に認識して読み取った潮流情報を出力すると共に、前記漁業者が操業した位置および日時を位置情報および前記日時情報として、測位衛星からの信号に基づいて出力する漁業管理支援端末装置と、前記漁業者が操業して得た漁獲量が記載された仕切書であり、産地市場が発行する仕切書に基づいて漁獲量を漁獲量情報として入力するための入力用端末装置と、前記漁業管理支援端末装置からの前記潮流情報、前記位置情報および前記日時情報と前記入力用端末装置からの漁獲量情報とに基づいて漁獲成績報告書または操業日誌のいずれか一方または両方を生成する漁業管理支援サーバとを備えたものとすることができる。 The fisheries management support system of the present invention may include a fisheries management support terminal device that uses the character recognition device of the present invention to optically recognize characters from a photographed image of the display screen of a tidal current meter installed on a fishing boat on which a fisherman is aboard and outputs tidal current information read from the image, and outputs the location and date and time of the fisherman's operation as location information and the date and time information based on a signal from a positioning satellite; an input terminal device that is an invoice that describes the amount of catch obtained by the fisherman's operation and is used to input the amount of catch as catch information based on an invoice issued by a production market; and a fisheries management support server that generates a fishing performance report or an operation logbook, or both, based on the tidal current information, location information, and date and time information from the fisheries management support terminal device and the catch information from the input terminal device.
本発明によれば、2値化手段により反射光を除去することができるので、表示画面に反射光の写り込みが生じても、精度良く文字認識させることを可能とすることで、厳しい環境でも使用できる。 According to the present invention, reflected light can be removed by the binarization means, so even if reflected light is captured on the display screen, accurate character recognition is possible, making it possible to use the device in harsh environments.
本発明の実施の形態に係る漁業管理支援システムを図面に基づいて説明する。なお、本明細書では、「文字」を字および記号などを含む意味合いで使用しており、一般的にOCR(Optical character recognition)と称される装置やソフトウェアが認識する対象と同じである。
図1に示す漁業管理支援システム10は、漁業者による漁獲成績報告書や操業日誌の作成を支援するものである。
The fisheries management support system according to the embodiment of the present invention will be described with reference to the drawings. In this specification, the term "character" is used to mean characters and symbols, and is the same as the object recognized by devices and software generally called OCR (Optical character recognition).
The fisheries
漁業管理支援システム10は、漁業者が船上にて操作する漁業管理支援端末装置20と、操業に関する情報を収集して漁獲成績報告書や操業日誌を作成する漁業管理支援サーバ30と、漁獲量を入力するための入力用端末装置40と、海洋気象情報提供サーバ50と、文字認識支援サーバ60と、作業用端末装置70とを備えている。
漁業管理支援サーバ30は、漁業管理支援端末装置20と、入力用端末装置40と、海洋気象情報提供サーバ50と、文字認識支援サーバ60と、作業用端末装置70とに、電気通信回線の一例であるインターネットWを介して通信可能に接続されている。
The fisheries
The fisheries
漁業管理支援サーバ30および文字認識支援サーバ60は、漁業管理支援システム10を管理する管理会社が運営するサーバであり、管理会社に設置されたサーバであったり、レンタルサーバであったりすることができる。
海洋気象情報提供サーバ50は、海洋気象情報を提供する気象データ提供会社が運営するサーバである。
The fisheries
The marine weather
漁業者が登場する漁船には、操業の際の参考データとして、また、操業日誌および漁獲高成績報告書に測定値を記入するための計測器の一例である潮流計が搭載されている。図2に示す潮流計Tにおける表示画面Dの周囲の額縁には、認識用部材として再帰性反射材により形成された周囲枠Fが配置されている。 The fishing boat in which the fishermen appear is equipped with a tidal current meter, which is an example of a measuring instrument used to record measurements as reference data during fishing operations and in fishing logbooks and catch reports. A peripheral frame F made of retroreflective material is placed as a recognition component in the frame surrounding the display screen D of the tidal current meter T shown in Figure 2.
次に、漁業管理支援端末装置20の構成について、図3に基づいて説明する。
漁業管理支援端末装置20は、漁業管理支援サーバ30(図1参照)に、操業時情報を送信するコンピュータである。漁業管理支援端末装置20は、持ち運びが容易で、漁業者が既に所有している、または調達が容易な、タブレット型コンピュータやスマートフォンである。
漁業管理支援端末装置20には、漁業管理支援プログラムが動作する。この漁業管理支援端末装置20に漁業管理支援プログラムが動作することで、コンピュータを次の各手段として機能させている。
Next, the configuration of the fishery management
The fishery management
A fishery management support program runs on the fishery management
漁業管理支援端末装置20は、通信手段21と、撮影手段22と、画面制御手段23と、文字認識手段24と、測位手段25と、情報送信手段26と、入力手段27と、表示手段28と、記憶手段29とを備えている。
The fisheries management
通信手段21は、無線通信により、携帯電話会社の中継局(図示せず)と通信して、インターネットWから受信したデータを、漁業管理支援端末装置20の各手段に出力したり、各手段からのデータを入力してインターネットW(図1参照)に送信したりする。
通信手段21は、例えば、携帯電話会社の中継局と通信する4Gや5Gなどの通信方式で通信するものとすることができる。また、通信手段21は、通信先が近距離であれば、WiFi(登録商標)により通信することができる。
The communication means 21 communicates with a mobile phone company's relay station (not shown) via wireless communication, and outputs data received from the Internet W to each means of the fisheries management
The communication means 21 may be, for example, a means for communicating with a relay station of a mobile phone company using a communication method such as 4G or 5G. Also, the communication means 21 may communicate with a communication destination in a short distance using Wi-Fi (registered trademark).
撮影手段22は、計測器の一例である潮流計の表示画面を撮影して静止画または動画を記憶手段29に格納する。
画面制御手段23は、記憶手段29から画面データを読み出し表示手段28に表示する。
文字認識手段24は、文字認識装置として機能するものである。文字認識手段24は、図1に示す漁船に搭載された潮流計の文字が表示された表示画面を撮影した撮影画像から文字を光学的に認識して読み取った潮流情報を出力するものである。
The imaging means 22 captures an image of the display screen of a tidal current meter, which is an example of a measuring instrument, and stores the captured still or moving image in the storage means 29 .
The screen control means 23 reads out the screen data from the storage means 29 and displays it on the display means 28 .
The character recognition means 24 functions as a character recognition device. The character recognition means 24 optically recognizes characters from a captured image of a display screen on which characters are displayed of the tidal current meter mounted on the fishing boat shown in Figure 1, and outputs the tidal current information read from the captured image.
測位手段25は、測位衛星からの信号に基づいて現在地を位置情報として測位する機能を有する。位置情報は、経度および経度などで、高さも含めることができる。また、測位手段25は、測位の際に取得した現時刻(年月日および時間)を日時情報として出力する機能も有する。測位衛星は、みちびきと称される準天頂衛星システム(QZSS:Quasi-Zenith Satellite System)やGPS(Global Positioning System)とすることができる。 The positioning means 25 has a function of determining the current location as position information based on a signal from a positioning satellite. The position information may be longitude and latitude, and may also include altitude. The positioning means 25 also has a function of outputting the current time (date and hour) obtained during positioning as date and time information. The positioning satellite may be the Quasi-Zenith Satellite System (QZSS), also known as Michibiki, or the Global Positioning System (GPS).
情報送信手段26は、外部との通信が可能な状態になったことを通信手段21が検知すると、記憶手段29から操業時情報を読み出し、漁業管理支援サーバ30へ送信する。
入力手段27は、表示手段28の前面に設けられたタッチパネルとすることができる。
表示手段28は、LCDパネル、有機ELパネル等とすることができる。
記憶手段29は、高速に読み書きができ、不揮発であるフラッシュメモリとすることができる。記憶手段29には、OSやアプリケーションソフトなどのプログラムおよび各種のデータが記憶される。記憶手段29には、操業時の潮流に関する潮流情報が格納される。操業場所を示す位置情報と操業開始日時を示す日時情報とが操業時情報として格納される。また、記憶手段29には、画面データが格納される。更に、記憶手段29には、認識対象の文字が表示された領域(以下、認識対象領域と称す。)が定義されたテンプレートが格納される。
テンプレートには、認識対象領域の他に、各領域の属性(流速、水温)、表示画面の背景色、文字色、認識後の文字を表示する領域などが定義されている。
When the communication means 21 detects that communication with the outside has become possible, the information transmission means 26 reads out the operation information from the storage means 29 and transmits it to the fisheries
The input means 27 can be a touch panel provided on the front surface of the display means 28 .
The display means 28 may be an LCD panel, an organic EL panel, or the like.
The storage means 29 may be a non-volatile flash memory that can be read and written at high speed. Programs such as an OS and application software, as well as various data, are stored in the storage means 29. Current information relating to currents during operation is stored in the storage means 29. Position information indicating the operation location and date and time information indicating the start date and time of operation are stored as operation time information. Screen data is also stored in the storage means 29. Furthermore, a template is stored in the storage means 29, in which an area in which characters to be recognized are displayed (hereinafter referred to as the recognition target area) is defined.
In addition to the recognition target area, the template defines the attributes of each area (flow speed, water temperature), the background color of the display screen, the character color, the area in which the recognized characters are to be displayed, and so on.
ここで、文字認識手段24について、図面に基づいて詳細に説明する。
文字認識手段24は、潮流計の表示画面から潮速、潮向、潮温度を読み取り、潮速情報、潮向情報、潮温度情報を潮流情報として出力するものである。
図4に示すように、文字認識手段24は、画面領域検出手段241と、抽出手段242と、2値化手段243と、テンプレート指定手段244と、認識手段245と、属性付与手段246とを備えている。
The character recognition means 24 will now be described in detail with reference to the drawings.
The character recognition means 24 reads the tidal speed, tidal direction and tidal temperature from the display screen of the tidal current meter, and outputs the tidal speed information, tidal direction information and tidal temperature information as tidal current information.
As shown in FIG. 4, the character recognition means 24 includes a screen area detection means 241 , an extraction means 242 , a binarization means 243 , a template designation means 244 , a recognition means 245 , and an attribute assignment means 246 .
画面領域検出手段241は、表示画面における画面領域を通知するものである。
抽出手段242は、撮影方向を変更しながら潮流計の表示画面を撮影した複数枚の撮影画像または動画による撮影画像に基づいて、各画素から外れ値を除去して合成することで、文字への反射光や、撮影手段22(図3参照)と表示画面D(図2参照)との間に位置する、例えば、舵輪やレバーなどの障害物の重畳が無い、または重畳が少ない撮影画像を生成する。
2値化手段243は、撮影画像から文字の文字色を示す第1色データ以外の画素の色データを第2色データに置換した2値画像を生成する。
The screen area detection means 241 notifies the screen area on the display screen.
The extraction means 242 removes outliers from each pixel based on multiple captured images or video images of the tidal current meter display screen taken while changing the shooting direction, and combines them to generate an image that has no or minimal overlap of reflected light from the characters or obstacles such as a steering wheel or lever that are located between the shooting means 22 (see Figure 3) and the display screen D (see Figure 2).
The binarizing means 243 generates a binary image by replacing the color data of pixels other than the first color data indicating the character color of the characters in the captured image with the second color data.
テンプレート指定手段244は、表示画面から文字認識する箇所が指定されたテンプレートを、記憶手段29から読み出し指定する。本実施の形態では、テンプレート指定手段244が記憶手段29に格納されたテンプレートをオフラインにて使用しているが、文字認識する度に文字認識支援サーバ60からテンプレートを取得してオンラインで使用するようにしてもよい。
また、テンプレート指定手段244は、表示手段28に複数のテンプレートを表示して、この中から入力手段27により指定されたテンプレートを選択することができる。
The template designation means 244 reads out and designates a template in which a portion to be character recognized is designated on the display screen from the storage means 29. In this embodiment, the template designation means 244 uses the template stored in the storage means 29 offline, but a template may also be obtained from the character
Furthermore, the template designation means 244 can display a plurality of templates on the display means 28 and select a template designated by the input means 27 from among them.
認識手段245は、テンプレートに含まれた第1色データにより示された文字を認識して文字情報として出力する。認識手段245は、文字を認識したときの文字認識率を含む文字認識情報を生成する。
属性付与手段246は、認識手段245により認識された文字に、テンプレート指定手段244により指定されたテンプレートに対応する属性を付与する。
The
The
認識情報通知手段247は、文字認識率や使用時間(使用回数)など、認識の際の統計情報を文字認識情報として文字認識支援サーバ60へ通知する。認識情報通知手段247は、操業者が入力手段27を操作して、図示しない入力画面に入力した文字情報によるコメントを文字認識情報に含めることができる。
テンプレート取得手段248は、文字認識支援サーバ60からテンプレートを取得する。また、テンプレート取得手段248は、文字認識率を向上させるための新しいテンプレートが設定されていれば、新しいテンプレートを取得して、テンプレート指定手段244が使用するテンプレートを更新する。
The recognition
The template acquisition means 248 acquires a template from the character
次に、漁業管理支援サーバ30の構成について図面に基づいて説明する。
図5に示すように、漁業管理支援サーバ30は、通信手段31と、海区解析手段32と、海洋情報取得手段33と、漁獲量登録手段34と、報告書生成手段35と、操業日誌生成手段36と、記憶手段37とを備えている。
Next, the configuration of the fisheries
As shown in Figure 5, the fisheries
通信手段31は、インターネットWから受信したデータを、漁業管理支援サーバ30の各手段に出力したり、各手段からのデータを入力してインターネットW(図1参照)に送信したりする。
The communication means 31 outputs data received from the Internet W to each means of the fisheries
海区解析手段32は、漁業管理支援端末装置20(図1参照)からの緯度情報と経度情報である位置情報に基づいて操業場所である漁区(海区)を判定し、漁区に対応する漁区番号を出力する。
海洋情報取得手段33は、漁業管理支援端末装置20(図1参照)からの位置情報と日時情報とに基づいて海洋気象情報提供サーバ50から海洋気象情報を取得する。
海洋気象情報は、水深深度別の水温を示す水温情報、潮流を示す潮流情報(海流の東西成分および南北成分)、海面の高度を示す海面高度情報、海水の塩分濃度を示す塩分濃度情報、波の高さを示す波浪情報、風向および風速を示す風情報、降水量を示す降水量情報、気圧を示す気圧情報など、気象に関する情報が含まれる。
The sea area analysis means 32 determines the fishing area (sea area) where fishing is conducted based on location information, which is the latitude and longitude information, from the fisheries management support terminal device 20 (see Figure 1), and outputs a fishing area number corresponding to the fishing area.
The marine information acquisition means 33 acquires marine weather information from the marine weather
Marine weather information includes meteorological information such as water temperature information indicating water temperature at different depths, tidal current information indicating tidal currents (east-west and north-south components of ocean currents), sea surface altitude information indicating the sea surface altitude, salinity information indicating the salinity of seawater, wave information indicating wave height, wind information indicating wind direction and wind speed, precipitation information indicating precipitation amount, and pressure information indicating air pressure.
本実施の形態では、海洋気象情報を、気象データ提供会社による海洋気象情報提供サーバ50からインターネットWを介してオンラインにより取得するようにしているが、過去の海洋気象情報は、例えば、CD-ROMやDVDなどにより取得することもできる。この場合、気象業務支援センター提供の過去気象情報オフラインデータ「海況解析データ」が利用できる。
In this embodiment, marine weather information is obtained online via the Internet W from a marine weather
漁獲量登録手段34は、入力用端末装置40から入力された漁獲成績報告書に掲載する漁獲量を漁獲量情報として記憶手段37に登録する。
報告書生成手段35は、操業に関する情報(操業時情報(潮流情報、位置情報、日時情報)、漁獲量情報)に基づいて漁獲成績報告書を生成する。漁獲成績報告書は、例えば、PDF(Portable Document Format)などの形式とすることができる。
操業日誌生成手段36は、操業に関する情報に基づいて、操業日誌を生成する。
記憶手段37は、OSやアプリケーションソフトなどのプログラムおよび各種のデータ(情報)を記憶するもので、例えば、SSDやハードディスクドライブとすることができる。
The catch volume registration means 34 registers the catch volume to be included in the fishing report inputted from the
The report generating means 35 generates a fishing report based on information related to fishing operations (fishing time information (current information, position information, date and time information), and catch volume information). The fishing report may be in a format such as PDF (Portable Document Format).
The operation log generating means 36 generates an operation log based on information related to the operation.
The storage means 37 stores programs such as an OS and application software, and various data (information), and may be, for example, an SSD or a hard disk drive.
図1に示す入力用端末装置40は、漁業管理支援サーバ30にアクセスして、漁業者が操業して得た漁獲量が記載された仕切書であり、産地市場が発行する仕切書に基づいて、漁獲量を入力するためのコンピュータである。
海洋気象情報提供サーバ50は、位置情報および日時情報に基づいて、操業場所の操業開始日時における海洋気象に関する情報を提供する。
The
The marine weather
文字認識支援サーバ60は、漁業管理支援端末装置20からの文字認識率などの文字認識情報を受信して、管理者(開発者)に提供する。また、文字認識支援サーバ60は、漁業管理支援端末装置20からの要求に応じて新しいテンプレートを提供する。
文字認識支援サーバ60は、テンプレートに、漁業管理支援端末装置20を識別する識別情報、漁業管理支援端末装置20を操作する操業者に割り当てられたアカウント、および潮流計の機種を識別する型番情報、文字認識率などを含む文字認識情報が関連付けられ、図示しない記憶手段に格納され、管理されている。
The character
The character
文字認識支援サーバ60は、操業者ごとのアカウントに課金することができる。例えば、新規のテンプレートを提供するごとに課金したり、漁業管理支援端末装置20が文字認識する度に課金したりすることができる。課金を文字認識する度とするときには、テンプレート指定手段244が文字認識する前に新規のテンプレートの有無を確認することを契機に課金したり、文字認識後に、認識情報通知手段247が文字認識情報を通知したことを契機に課金したりすることができる。
The character
作業用端末装置70は、テンプレートを作成したり、編集したりするための端末装置である。
The
以上のように構成された本発明の実施の形態に係る漁業管理支援システム10の動作および使用状態について、図面に基づいて説明する。
図6に示すように漁業者が漁場に到着する。そして、漁業者が、漁業管理支援端末装置20を操作して漁業管理支援プログラムを起動する。そうすることで、図3に示す画面制御手段23は、記憶手段29から画面データを読み出し、図8に示す操作画面P1を表示手段28に表示する。
The operation and usage of the fisheries
As shown in Fig. 6, a fisherman arrives at a fishing ground. Then, the fisherman operates the fishery management
操作画面P1には、操業日誌が表示されている。操作画面P1の中段には、潮流計の表示画面を撮影するために撮影手段22を呼び出すために、「カメラからの入力」と表示された撮影起動のためのボタンB11が表示されている。
また、操作画面P1には、潮流の速度を示す潮速情報が表示される潮速表示欄R11と、潮流の向きを示す潮向情報が表示される潮向表示欄R12と、潮流の水温を示す潮水温情報が表示される潮水温表示欄R13とが配置されている。
An operation log is displayed on the operation screen P1. In the middle of the operation screen P1, a button B11 for starting photography, labeled "input from camera", is displayed to call up the photography means 22 for photographing the display screen of the tidal current meter.
In addition, the operation screen P1 is provided with a tide speed display field R11 which displays tide speed information indicating the speed of the tide, a tide direction display field R12 which displays tide direction information indicating the direction of the tide, and a tide water temperature display field R13 which displays tide water temperature information indicating the water temperature of the tide.
まず、漁業者は、操業前に、漁業管理支援端末装置20を操作して、潮流計Tの表示画面を撮影手段22により撮影方向を変更しながら撮影して、文字認識させることで、潮流情報を取得する(図6のステップS10参照)。
ここで、文字認識手段24による表示画面に表示された文字を認識して文字情報を出力する文字認識処理について図面に基づいて説明する。
First, before fishing operations, the fisherman operates the fisheries management
Here, the character recognition process performed by the character recognition means 24 to recognize characters displayed on the display screen and output character information will be described with reference to the drawings.
(テンプレートの取得)
図4に示すテンプレート指定手段244は、テンプレートについて、オフラインで使用するときは、記憶手段29から読み込む。また、オンラインで使用するときには、図1に示す文字認識支援サーバ60にアクセスしてテンプレートを取得する(ステップS11参照)。
このとき、文字認識支援サーバ60は、漁業管理支援端末装置20からの要求に応じて、要求元の漁業管理支援端末装置20に紐付いた、または操業者本人のアカウントに対応するテンプレートを返信したり、他の漁業管理支援端末装置20に紐付いた、または他の操業者のアカウントに対応する文字認識率が高いテンプレートを返信したりすることができる。
このように、文字認識支援サーバ60が、本人のテンプレートだけでなく、文字認識率が高い他人のテンプレートを提供するので、文字認識率の向上を図ることができる。
テンプレート指定手段244は、表示手段28に表示された複数のテンプレートの中から入力手段27により選択されたテンプレートを指定することができるので、操業者が考える文字認識に好適なテンプレートを選択することができる。
(Get template)
When a template is to be used offline, the template designation means 244 shown in Fig. 4 reads the template from the storage means 29. When a template is to be used online, the template is acquired by accessing the character
At this time, in response to a request from the fisheries management
In this way, the character
The template designation means 244 can designate a template selected by the input means 27 from among a plurality of templates displayed on the display means 28, so that the operator can select a template that is suitable for character recognition.
(表示画面の撮影)
図3に示す撮影手段22が表示画面D(図2参照)を撮影すると、撮影画像が記憶手段29に格納される。
このとき、撮影手段22は、複数枚の静止画を撮影したり、動画により撮影したりすることができる。本実施の形態では、漁業者に動画により撮影させることで、漁業者は、撮影方向を変更しながら複数枚の静止画を撮影することの煩雑さを解消することができる(図7のステップS12参照)。
(Photo of the display screen)
When the image capturing means 22 shown in FIG. 3 captures an image of the display screen D (see FIG. 2), the captured image is stored in the storage means 29 .
At this time, the photographing means 22 can take multiple still images or can take a video. In this embodiment, the fisherman can eliminate the trouble of taking multiple still images while changing the photographing direction by having the fisherman take a video (see step S12 in FIG. 7).
動画は、複数のフレームと称される静止画からなるものである。まず、画面領域検出手段241が、図10(A)から同図(D)に示すように、この複数の静止画である撮影画像G1~G4から、図2に示す周囲枠Fを見つける。 A video is made up of multiple still images called frames. First, the screen area detection means 241 finds the surrounding frame F shown in Figure 2 from the captured images G1 to G4, which are the multiple still images, as shown in Figures 10 (A) to (D).
(画面領域の検出)
ここで、画面領域検出手段241が表示画面を撮影した撮影画像から画面領域を検出する方法を説明する(ステップS13参照)。
(Screen area detection)
Here, a method for the screen area detection means 241 to detect the screen area from a captured image of the display screen will be described (see step S13).
(1)まず、画面領域を深層学習により検出する方法を説明する。
最初に、深層学習モデルを構築する。深層学習モデルは、表示画面を撮影方向を変更しながら撮影した複数枚の撮影画像、または表示画面を撮影方向を変更しながら撮影した動画による撮影画像と、この撮影画像の画面領域を指定した領域指定済画像とにより、撮影方向に応じた撮影画像における画面領域を学習させることで構築される。
領域指定済画像は、画面領域を手動により塗り潰すことで指定してもよいし、画面領域を示す枠を表示画面に貼り付け、画面領域と枠とを一緒に撮影した撮影画像により、枠内を画面領域として自動的に塗り潰すことで指定してもよい。
この深層学習モデルは、記憶手段29に格納される。
(1) First, a method for detecting a screen area using deep learning will be described.
First, a deep learning model is constructed by having the model learn the screen area in the captured image according to the shooting direction using multiple captured images captured while changing the shooting direction of the display screen, or captured images of a video captured while changing the shooting direction of the display screen, and a region-designated image that designates the screen area of the captured image.
The area-specified image may be specified by manually filling in the screen area, or may be specified by attaching a frame indicating the screen area to the display screen and automatically filling in the inside of the frame as the screen area with a photographed image in which the screen area and the frame are photographed together.
This deep learning model is stored in memory means 29.
このようにして、撮影方向に応じた画面領域を学習した深層学習モデルが構築されると、画面領域検出手段241は、文字認識する際に、深層学習モデルに基づいて、撮影画像から表示画面の画面領域を推定する。
そして、画面領域検出手段241は、この画面領域を射影変換により矩形状の画面領域に変換して通知する。
In this way, once a deep learning model that has learned the screen area according to the shooting direction is constructed, the screen area detection means 241 estimates the screen area of the display screen from the captured image based on the deep learning model when performing character recognition.
Then, the screen area detection means 241 converts this screen area into a rectangular screen area by projective transformation and notifies the converted area.
(2)次に、図2に示す表示画面Dの周囲の額縁に設けられた再帰性反射材により形成された周囲枠Fからの反射光による仮想枠を検出して、撮影画像から仮想枠により囲まれた画面領域を検出する方法を説明する。
周囲枠Fは、認識用部材として再帰性反射材から形成されているため、漁業管理支援端末装置20におけるフラッシュとして発光する発光手段(図示せず)からの光が、周囲枠Fに反射して真っ直ぐ漁業管理支援端末装置20に戻る。
従って、撮影画像G1~G4には、周囲枠Fからの反射光が、仮想枠Vとして写り込む。
画面領域検出手段241は、この仮想枠Vを検出して、撮影画像から射影変換により仮想枠Vにより囲まれた矩形状の表示画面Dに変換して画面領域を通知する。
(2) Next, a method will be described in which a virtual frame is detected based on reflected light from a peripheral frame F formed by a retroreflective material provided in the frame surrounding the display screen D shown in Figure 2, and the screen area surrounded by the virtual frame is detected from the captured image.
Since the surrounding frame F is formed from a retroreflective material as a recognition component, light from a light-emitting means (not shown) that emits light as a flash in the fisheries management
Therefore, the light reflected from the peripheral frame F appears as a virtual frame V in the captured images G1 to G4.
The screen area detection means 241 detects this virtual frame V, converts the captured image into a rectangular display screen D surrounded by the virtual frame V by projective transformation, and notifies the screen area.
(3)次に、周囲枠Fとする認識用部材として、再帰性反射材により形成する以外に、色テープにより形成した方法を説明する。
周囲枠Fが色テープにより形成されているときには、色テープの色、例えば黄色の周囲枠Fが撮影画像に写り込む。従って、画面領域検出手段241が、この黄色の周囲枠Fを検出して、撮影画像から周囲枠Fにより囲まれた表示画面の画面領域を通知することができる。
(3) Next, a method of forming the peripheral frame F as a recognition member from colored tape in addition to forming it from a retroreflective material will be described.
When the peripheral frame F is formed by color tape, the color of the color tape, for example, the yellow peripheral frame F, appears in the captured image. Therefore, the screen area detection means 241 can detect this yellow peripheral frame F and notify the screen area of the display screen surrounded by the peripheral frame F from the captured image.
(4)更に、認識用部材を、図11に示すように、表示画面における額縁の4箇所の角部に設けられた二次元バーコードBとした場合では、画面領域検出手段241は、二次元バーコードBの位置を認識し、隣接する二次元バーコードB同士の位置を結ぶ4本の仮想線Lによる仮想枠Vを検出することで、撮影画像Gから仮想枠Vにより囲まれた画面領域を通知することができる。
本実施の形態では、二次元バーコードBとして二次元マーカーの一種であるArUcoを使用しているが、QRコード(登録商標)でも使用できる。
(4) Furthermore, in the case where the recognition component is a two-dimensional barcode B provided at the four corners of a frame on the display screen, as shown in FIG. 11, the screen area detection means 241 recognizes the position of the two-dimensional barcode B and detects a virtual frame V defined by four virtual lines L connecting the positions of adjacent two-dimensional barcodes B, thereby being able to notify the screen area surrounded by the virtual frame V from the captured image G.
In this embodiment, ArUco, which is a type of two-dimensional marker, is used as the two-dimensional barcode B, but a QR code (registered trademark) can also be used.
(1)~(4)によれば、漁業者が表示画面Dを正面から撮影せずに、矩形状の表示画面Dが台形状に歪んでいたり、表示画面Dの周囲に背景が写り込んだりしていても、正確に表示画面Dの範囲を把握することができる。
また、(1)の深層学習により画面領域を推定することで、画面領域を示す目印(例えば、再帰性反射材や色テープ、二次元バーコードなど)を表示画面に設けることなく、正確に表示画面の範囲を把握することができる。
According to (1) to (4), even if a fisherman does not photograph the display screen D from the front, and even if the rectangular display screen D is distorted into a trapezoid shape or the background is reflected around the display screen D, the fisherman can accurately grasp the range of the display screen D.
In addition, by estimating the screen area using deep learning (1), it is possible to accurately grasp the range of the display screen without placing markings indicating the screen area (e.g., retroreflective material, colored tape, two-dimensional barcodes, etc.) on the display screen.
(合成画面の生成)
次に、図4に示す抽出手段242が、各画素から外れ値を除去して合成することで、文字への反射光の重畳が無い、または重畳が少ない撮影画像として合成画像を生成する(ステップS14参照)。
ここで、抽出手段242による撮影画像の生成方法について詳細に説明する。
例えば、図10(A)から同図(D)に示す連続して撮影された撮影画像G1~G4では、点状の反射光Rや面状の反射光Rが写り込んでいる。
(Generation of composite images)
Next, the extraction means 242 shown in FIG. 4 removes outliers from each pixel and synthesizes the pixels to generate a composite image as a captured image with no or minimal overlap of reflected light on the characters (see step S14).
Here, a method for generating a captured image by the extraction means 242 will be described in detail.
For example, in the successively captured images G1 to G4 shown in FIGS. 10A to 10D, point-like reflected light R and planar reflected light R are captured.
そこで、まず、N枚の画像におけるi番目の画像における各画素(x,y)のRGB値を、Ri(x,y),Gi(x,y),Bi(x,y)により表したときに、抽出手段242は、以下の式により各画素のRGB値の中間値を算出することで、1枚に合成した画像RRを生成する。
RRR(x,y)=median(R0(x,y),R1(x,y),R2(x,y),・・・,RN-1(x,y))
GRR(x,y)=median(G0(x,y),G1(x,y),G2(x,y),・・・,GN-1(x,y))
BRR(x,y)=median(B0(x,y),B1(x,y),B2(x,y),・・・,BN-1(x,y))
このように、抽出手段242が、各画素から外れ値を除去するために、各画素のRGB値の中間値とした合成画像RRを複数枚の撮影画像から生成することで、明るく反射が写り込んだ画像の画素は、写り込んでいない他の画像の画素のRGB値により低く抑えることができる。
また、撮影画像G1~G4は、撮影方向を変更しながら撮影したものであるため、最初の撮影画像の文字に反射光Rが重畳していても、撮影方向を移動しているうちに反射光Rが文字から外れ、反射光Rが文字に重畳しないようにすることができるので、これらの撮影画像G1~G4を合成したときに、反射光Rを弱めたり、取り除いたりすることができる。
その結果の合成画像RRを図10(E)により示す。図10(E)に示す合成画像RRでは、反射光が無くなっているのがわかる。
First, when the RGB values of each pixel (x, y) in the i-th image among the N images are expressed as Ri(x, y), Gi(x, y), and Bi(x, y), the extraction means 242 calculates the intermediate value of the RGB values of each pixel using the following formula, thereby generating a single composite image RR.
R RR (x,y)=median (R 0 (x,y), R 1 (x,y), R 2 (x,y), ..., R N-1 (x,y))
G RR (x,y)=median (G 0 (x,y), G 1 (x,y), G 2 (x,y), ..., G N-1 (x,y))
B RR (x,y)=median (B 0 (x,y), B 1 (x,y), B 2 (x,y), ..., B N-1 (x,y))
In this way, the extraction means 242 generates a composite image RR from multiple captured images using the median RGB values of each pixel to remove outliers from each pixel, so that pixels in an image that contain bright reflections can have lower RGB values than pixels in other images that do not contain reflections.
In addition, since the captured images G1 to G4 were captured while changing the shooting direction, even if reflected light R is superimposed on the characters in the first captured image, the reflected light R moves away from the characters as the shooting direction is moved, and it is possible to prevent the reflected light R from being superimposed on the characters. Therefore, when these captured images G1 to G4 are combined, the reflected light R can be weakened or removed.
The resulting composite image RR is shown in Fig. 10(E) , from which it can be seen that there is no reflected light.
上記説明では、外れ値の除去するために、抽出手段242は、各画素の中間値を算出することで合成していたが、外れ値の除去は、標準偏差における平均値の2σから外れた値を外れ値とすることができ、外れ値を除去した平均値とすることができる。 In the above explanation, in order to remove outliers, the extraction means 242 synthesizes the mean value by calculating the median value of each pixel, but in removing outliers, values that deviate from 2σ of the average value in the standard deviation can be regarded as outliers, and the average value can be obtained by removing the outliers.
(2値画像の生成)
次に、図4に示す2値化手段243が、撮影画像から文字の文字色を示す第1色データ以外の画素の色データを第2色データに置換した2値画像を生成する(ステップS15参照)。本実施の形態では、文字色を白色としている。つまり、第1色データは、赤色データが0,緑色データが0、青色データが0となる。また、第2色データを黒色としている。つまり、第1色データは、赤色データが255,緑色データが255、青色データが255となる。
例えば、図12(A)に示すように文字「1.0」に蛍光灯の反射光Rが重畳しているが、反射光Rは薄青い色を呈している。従って、白色以外を全て黒色とする2値化処理を行うことにより反射光Rを除去することができる。
このように2値化手段243が、2値画像を生成することで、抽出手段242でも取り除けなかった黒みがかった反射光が写り込んだ撮影画像から反射光を除去することができる。
(Generation of binary images)
Next, the binarization means 243 shown in Fig. 4 generates a binary image by replacing the color data of pixels other than the first color data indicating the character color of the character from the captured image with the second color data (see step S15). In this embodiment, the character color is white. That is, the first color data is 0 for red data, 0 for green data, and 0 for blue data. Also, the second color data is black. That is, the first color data is 255 for red data, 255 for green data, and 255 for blue data.
12A, for example, the reflected light R from a fluorescent lamp is superimposed on the character "1.0", and the reflected light R has a pale blue color. Therefore, the reflected light R can be removed by performing binarization processing to change all colors other than white to black.
In this manner, the binarization means 243 generates a binary image, thereby making it possible to remove reflected light from a photographed image in which blackish reflected light has appeared that could not be removed even by the extraction means 242 .
従って、文字認識手段24は、表示画面に反射光Rや障害物の写り込みが生じないように箱を被せる必要がないため煩雑な手間が不要である。また、文字認識手段24は、表示画面に反射光の写り込みが生じても、精度良く文字認識させることを可能とすることで、海上のような厳しい環境でも使用できる。 Therefore, the character recognition means 24 does not require a box to cover the display screen to prevent reflected light R or obstacles from appearing on the display screen, which eliminates the need for cumbersome labor. Furthermore, the character recognition means 24 can be used in harsh environments such as the ocean by enabling accurate character recognition even when reflected light appears on the display screen.
(文字認識)
次に、図4に示す認識手段245が、テンプレート指定手段244が指定したテンプレートの認識対象領域に含まれる2値画像の第1色データにより示された文字を認識して文字情報として出力する(ステップS16参照)。
(Character Recognition)
Next, the recognition means 245 shown in FIG. 4 recognizes the character indicated by the first color data of the binary image included in the recognition target area of the template specified by the template specification means 244, and outputs it as character information (see step S16).
例えば、本実施の形態では、テンプレートにより定義された矩形状の認識対象領域として、図12(B)に示すように、潮流の速度を示す潮速領域S1と、潮流の方向を示す潮向領域S2と、潮流の水温を示す潮温度領域S3とが定義されている。
テンプレート指定手段244がテンプレートによる認識対象領域の文字を認識するため、必要な範囲の文字のみを認識することができるので、文字認識の精度を高めることができる。
そして、属性付与手段246が、認識手段245により認識された文字に、テンプレート指定手段244により指定された認識対象領域(潮速領域S1,潮向領域S2,潮温度領域S3)に対応する属性を付与する(ステップS17参照)。例えば潮速領域S1に含まれる文字は潮速情報、潮向領域S2に含まれる文字は潮向情報、潮温度領域S3に含まれる文字は潮温度情報となる。
For example, in this embodiment, the rectangular recognition target areas defined by the template are a tide speed area S1 indicating the speed of the tide, a tide direction area S2 indicating the direction of the tide, and a tide temperature area S3 indicating the water temperature of the tide, as shown in Figure 12 (B).
Since the template designation means 244 recognizes characters in the recognition target area using the template, it is possible to recognize only the necessary range of characters, thereby improving the accuracy of character recognition.
Then, the
このように、文字認識手段24は、潮速領域S1に対応する潮速情報、潮向領域S2に対応する潮向情報、潮温度領域S3に対応する潮温度情報を、表示画面から認識して、潮流情報として生成することができる。 In this way, the character recognition means 24 can recognize tidal speed information corresponding to the tidal speed region S1, tidal direction information corresponding to the tidal direction region S2, and tidal temperature information corresponding to the tidal temperature region S3 from the display screen and generate them as tidal current information.
文字認識手段24は、テンプレートを記憶手段29により格納されたものを使用するオフラインのときには、認識結果について、記憶手段29に文字認識情報を格納して次の処理に移行する。また、認識対象領域を文字認識支援サーバ60から取得して使用するオンラインのときには、認識情報通知手段247が、文字認識情報を文字認識支援サーバ60にアップロードしてから次の処理に移行する。
文字認識情報が文字認識支援サーバ60にアップロードされるため、文字認識支援サーバ60にて文字認識情報の収集ができ、テンプレートの定義による違いで文字認識率がどのように変化するかを把握することができる。また、文字認識情報にテンプレートの使用日時を含めることができる。
使用日時によって、周囲環境、特に、太陽光の影響や照明光の影響などが把握できるため、文字認識情報に、テンプレートの使用日時を含むものとすれば、これらの影響に強いテンプレートを選択することができる。更に、文字認識情報に含まれた操業者のコメントにより操業者の使い勝手をフィードバックさせることができる。
従って、文字認識率によりテンプレートを評価することができ、文字認識率の向上に寄与させることができ、利便性を高めることができる。
When character recognition means 24 is offline and uses a template stored in storage means 29, it stores character recognition information about the recognition result in storage means 29 and moves to the next process. When character recognition means 24 is online and uses a recognition target area obtained from character
Since the character recognition information is uploaded to the character
Since the use date and time can be used to understand the surrounding environment, particularly the effects of sunlight and lighting, if the character recognition information includes the use date and time of the template, it is possible to select a template that is resistant to these effects. Furthermore, the operator's comments included in the character recognition information can provide feedback on the ease of use to the operator.
Therefore, the templates can be evaluated based on the character recognition rate, which contributes to improving the character recognition rate and enhances convenience.
文字認識手段24により文字認識されると、図9に示す操作画面P1に配置された、潮速表示欄R11に潮速情報が表示され、潮向表示欄R12に潮向情報が表示され、潮水温表示欄R13に潮水温情報が表示される。
図9に示す例では、潮速表示欄R11に潮速情報として、2.5ノットが表示され、潮向表示欄R12に潮向情報として、北北東が表示され、潮水温表示欄R13に潮水温情報として11度が表示される。
When characters are recognized by the character recognition means 24, tide speed information is displayed in the tide speed display column R11, tide direction information is displayed in the tide direction display column R12, and tide water temperature information is displayed in the tide water temperature display column R13, all of which are arranged on the operation screen P1 shown in Figure 9.
In the example shown in Figure 9, the tide speed display field R11 displays 2.5 knots as the tide speed information, the tide direction display field R12 displays north-northeast as the tide direction information, and the tide water temperature display field R13 displays 11 degrees as the tide water temperature information.
ここで、テンプレート指定手段244が指定したテンプレートの認識対象領域は、潮流計(計測器)のメーカーの機種によって表示画面のレイアウトが異なる。そのため、記憶手段29には、メーカーの機種ごとにテンプレートが定義され、格納されている。このテンプレートは、設定により変更することができるため、様々な漁船に搭載された機種を指定することで、漁業管理支援端末装置20を対応させることができる。
The layout of the display screen for the recognition target area of the template specified by the template specification means 244 varies depending on the manufacturer's model of the tidal current meter (measuring instrument). Therefore, a template is defined and stored in the storage means 29 for each manufacturer's model. This template can be changed by settings, so the fisheries management
図3に示す漁業管理支援端末装置20は、測位手段25が、測位衛星からの信号に基づいて測位することで、測位された位置情報と、測位の際に取得した日時情報と取得する。位置情報と日時情報とが取得されることで、図9に示す操作画面P1に緯度および軽度が表示される。
The fisheries management
操作画面P1には、操業日誌を新規で登録するために、「保存して新規登録」と表示され、操業開始時を示すボタンB12が表示されている。漁業者は、操業を開始するときに、このボタンB12を押下する。
ボタンB12が押下されたことが、図3に示す入力手段27から通知されると(図6のステップS30参照)、情報送信手段26は、操業時情報(潮流情報,位置情報,日時情報)を通知情報として、通信手段21を介して漁業管理支援サーバ30へ送信しようとする。
The operation screen P1 displays "Save and register new" to register a new fishing log, and also displays a button B12 indicating the start of fishing. When a fisherman starts fishing, he presses this button B12.
When the input means 27 shown in Figure 3 notifies the user that button B12 has been pressed (see step S30 in Figure 6), the information transmission means 26 attempts to transmit operation information (current information, location information, date and time information) as notification information to the fisheries
しかし、操業場所は沿岸より遠距離にあるため、通信手段21が携帯電話会社の中継局と通信不可な状態である(ステップS40参照)。従って、情報送信手段26は、通知情報を記憶手段29に格納して送信を待機する(ステップS50参照)。 However, because the operation site is far from the coast, the communication means 21 is unable to communicate with the relay station of the mobile phone company (see step S40). Therefore, the information transmission means 26 stores the notification information in the storage means 29 and waits for transmission (see step S50).
そして、操業が終了して漁船が沿岸に近づくと、通信手段21と中継局との通信が確立したことを契機に、情報送信手段26は、通知情報を記憶手段29から読み出して漁業管理支援サーバ30へ送信する(ステップS60参照)。
また、このとき、文字認識手段24が、テンプレートをオフラインで使用したときに記憶手段29に格納した、認識結果である文字認識情報も、沿岸に接近したときに文字認識支援サーバ60へ送信するようにしてもよい。
Then, when fishing operations are completed and the fishing boat approaches the coast, communication between the communication means 21 and the relay station is established, and the information transmission means 26 reads the notification information from the storage means 29 and transmits it to the fisheries management support server 30 (see step S60).
At this time, character recognition information, which is the recognition result stored in memory means 29 when the template was used offline by character recognition means 24, may also be transmitted to character
漁業管理支援サーバ30では、通信手段31を介して漁業管理支援端末装置20からの操業時情報(潮流情報、位置情報および日時情報)を受信すると、操業時情報が記憶手段37に格納されると共に、海区解析手段32が位置情報に基づいて操業場所が含まれる漁区(海区)を解析して漁区情報として記憶手段37に格納する(ステップS70参照)。
When the fisheries
また、海洋情報取得手段33(図5参照)が、位置情報および日時情報を海洋気象情報提供サーバ50に送信することで、位置情報が示す位置における日時情報が示す日時についての海洋気象に関する情報(海洋気象情報)を取得する(ステップS80参照)。
更に、漁業協同組合の担当者が入力用端末装置40を操作して、漁業管理支援サーバ30にアクセスし、仕切書に基づいて各操業場所における魚種ごとの漁獲量を入力する(ステップS90参照)。
In addition, the marine information acquisition means 33 (see Figure 5) transmits location information and date and time information to the marine weather
Furthermore, a person in charge at the fisheries cooperative operates the
漁業管理支援サーバ30では、入力用端末装置40からの仕切書についての漁獲量情報に基づいて漁獲量登録手段34が、記憶手段37に登録する。
漁業協同組合の担当者は、全ての情報の入力が完了すると、漁獲成績報告書の出力を、入力用端末装置40を操作して、漁業管理支援サーバ30に指示する。
In the fisheries
When the fisheries cooperative association staff member has completed inputting all the information, he/she operates the
漁業管理支援サーバ30では、報告書生成手段35が、記憶手段37から操業に関する情報(位置情報、日時情報、潮流情報、漁獲量情報)を読み出し、所定フォーマットの漁獲成績報告書を生成して記憶手段37に格納する(ステップS100参照)。このとき、報告書生成手段35は、日時情報から所定日時を加算した日時を、操業終了日時を示す終了日時情報として生成する。
入力用端末装置40では、生成された漁獲成績報告書をダウンロードすることで、入力用端末装置40にUSB等により直接、またはLAN等により間接的に接続された印刷装置(プリンタ等)に印刷することができる(ステップS110参照)。
In the fisheries
The generated fishing performance report can be downloaded to the
図13に、報告書生成手段35が生成した漁獲成績報告書の一例を示す。
図13に示す漁獲成績報告書では、時間日時情報から月日欄R1と投網開始時刻欄R2とに記載される情報が生成される。位置情報から漁区欄R3に記載される情報が生成される。投網終了時刻欄R4に記載される情報は日時情報から自動生成される。潮温度情報(潮流情報)から水温欄R5に記載される情報が生成される。そして、仕切書に基づいて入力された漁獲量情報から魚種別漁獲量欄R6に記載される情報が生成される。
なお、図13に示す漁獲成績報告書では、漁区欄R3に漁区番号が記載されているが、他に緯度と経度とを記載するフォーマットである場合には、位置情報から生成される。
FIG. 13 shows an example of a fishing report generated by the report generating means 35. In FIG.
In the fishing report shown in Figure 13, information to be entered in the date column R1 and the net casting start time column R2 is generated from time and date information. Information to be entered in the fishing area column R3 is generated from location information. Information to be entered in the net casting end time column R4 is automatically generated from date and time information. Information to be entered in the water temperature column R5 is generated from tide temperature information (current information). And information to be entered in the fish species catch column R6 is generated from catch volume information entered based on the invoice.
In the fishing report shown in FIG. 13, the fishing area number is entered in the fishing area column R3, but if the format also includes latitude and longitude, this is generated from the location information.
このように、漁業管理支援サーバ30では、漁業者、漁業協同組合などからの各種の情報を収集することで漁獲成績報告書を自動生成することができる。
In this way, the fisheries
そして、漁業管理支援サーバ30では、操業日誌生成手段36が、操業に関する情報(位置情報、日時情報、漁獲量情報)と海洋気象情報とに基づいて図14に示す操業日誌を自動生成する。図14に示す操業日誌は、漁業管理支援端末装置20により漁業管理支援サーバ30にアクセスすることで閲覧したものである。
Then, in the fisheries
このように、漁業管理支援システム10によれば、漁業管理支援端末装置20が、携帯電話会社の中継局を介して漁業管理支援サーバ30に送信できないときに、位置情報および日時情報を記憶手段29に格納して待機する。そして、漁業管理支援端末装置20が、中継局との通信が確立としたことを契機に、位置情報および日時情報を漁業管理支援サーバ30へ送信する。そのため、漁業者が海上で操業していても、通信が回復したときに漁業管理支援サーバ30に位置情報および日時情報を送信することができる。
In this way, according to the fisheries
従って、漁業管理支援端末装置20を、携帯電話会社と通信する機能を有するスマートフォンやタブレットとすることができる。また、漁業者は、位置情報および日時情報を取得するために図8および図9に示す操作画面を操作するだけである。
よって、図1に示す漁業管理支援システム10は、漁獲成績報告書の作成を支援することで、小規模な漁業者であっても、簡便に作成することができる。
Therefore, the fishery management
Therefore, the fisheries
また、漁業管理支援サーバ30の報告書生成手段35が、日時情報から所定日時を加算することで、操業終了日時を示す終了日時情報を生成することができるので、漁業者が、漁業管理支援端末装置20を操作して、操業終了日時を入力する必要がない。
In addition, the report generation means 35 of the fisheries
更に、漁業管理支援サーバ30の操業日誌生成手段36が、位置情報および日時情報と、潮流情報とに基づいて、図14に示すような操業日誌を生成することができる。
そうすることで、漁獲成績報告書だけでなく、操業日誌も同時に自動生成させることができる。
また、漁業管理支援システム10は、漁獲成績報告書を自動生成したり、漁獲成績報告書と操業日誌との両方を自動生成するだけでなく、操業日誌のみ自動生成したりするようにしてもよい。
Furthermore, the fishing log generation means 36 of the fisheries
This makes it possible to automatically generate not only a fishing report but also a fishing log at the same time.
In addition, the fisheries
次に、テンプレートの作成や編集について説明する。
作業者は、作業用端末装置70を操作して文字認識支援サーバ60にアクセスして、新規のテンプレートを作成したり、既存のテンプレートを編集したりすることができる。また、テンプレートを構成する複数の認識対象領域(パーツ)を組み合わせて合成することで、一つのテンプレートとすることができる。
このとき、作業用端末装置70では、表示手段にGUI(Graphical User Interface)により表示されたテンプレートを、マウスやタッチパッド、タッチスクリーンなどの入力手段により定義することができる。例えば、入力手段を操作して、矩形状の認識対象領域を、拡げたり狭めたり、移動させたりして、作成や合成、削除して、テンプレートを作成、編集することができる。
Next, creation and editing of a template will be described.
An operator can access the character
At this time, in the
複数の認識対象領域から一つのテンプレートを合成するときに、個々の認識対象領域のスケール(縮尺度)が異なり、大きさが異なる場合には、それぞれの認識対象領域を定義する相対座標を用いることにより、スケールの差異を吸収することができる。 When synthesizing a single template from multiple target regions, if the individual target regions have different scales (reduced sizes), the differences in scale can be absorbed by using relative coordinates to define each target region.
また、作業用端末装置70によりテンプレートを作成するときに、漁業管理支援端末装置20の撮影姿勢に基づいて作成することができる。
例えば、漁業管理支援端末装置20の表示手段28の長さ方向が上下方向に沿った姿勢で撮影されると、縦画面(ポートレート)に合わせた縦長の撮影画像となり、表示手段28の長さ方向が左右方向に沿った姿勢で撮影されると、横画面(ランドスケープ)に合わせた横長の撮影画像となり、漁業管理支援端末装置20の撮影姿勢によって撮影画像の縦横の比率が変わる。
In addition, when creating a template using the
For example, when an image is captured with the display means 28 of the fisheries management
そのため、表示画面が横長の潮流計を撮影するときに、縦画面で撮影しようとすると、横画面で撮影するときより、潮流計から遠ざかって撮影することになる。そうなると、テンプレートの認識対象領域の大きさが変わる。また、認識後の文字を漁業管理支援端末装置20の表示手段28(図2参照)に表示するときに、縦画面と横画面とで表示位置が変わる。
従って、縦長の撮影画像に好適な縦長用のテンプレートと、横長の撮影画像に好適な横長用のテンプレートとを準備して、漁業管理支援端末装置20の撮影姿勢に応じて、テンプレート指定手段244が縦長用または横長用のテンプレートを切り替える。そうすることで、撮影姿勢に好適なテンプレートを選択することができる。
Therefore, when photographing a tidal current meter with a horizontally long display screen, if you try to photograph it in portrait mode, you will be farther away from the tidal current meter than if you photographed it in landscape mode. This will change the size of the recognition target area of the template. Also, when the recognized characters are displayed on the display means 28 of the fishery management support terminal device 20 (see FIG. 2), the display position will change between portrait and landscape modes.
Therefore, a vertical template suitable for a vertically long photographed image and a horizontal template suitable for a horizontally long photographed image are prepared, and the template designation means 244 switches between the vertical and horizontal templates according to the photographing posture of the fisheries management
なお、本実施の形態では、計測器が漁業に使用される潮流計であったが、表示画面を有し、この表示画面に文字が表示されるものであれば、本発明の文字認識手段(文字認識装置)は適用可能である。
本実施の形態では、漁業管理支援サーバ30、海洋気象情報提供サーバ50、文字認識支援サーバ60などが別々のサーバにより構成されているが、各サーバが組み合わせたり、全部一緒であったりしてもよい。
In this embodiment, the measuring instrument is a tidal current meter used in fishing, but the character recognition means (character recognition device) of the present invention can be applied to any instrument that has a display screen and can display characters on the display screen.
In this embodiment, the fisheries
本発明は、厳しい環境でも文字認識が可能であるため、屋内だけでなく屋外にて使用される計測器の表示画面を読み取る場合に好適である。また、本発明は、漁獲成績報告書や操業日誌の作成を容易とすることができるため、漁業に従事する者に好適である。 The present invention is suitable for reading the display screens of measuring instruments used both indoors and outdoors, as it is capable of character recognition even in harsh environments. In addition, the present invention is suitable for those engaged in the fishing industry, as it can easily create fishing reports and operation logs.
10 漁業管理支援システム
20 漁業管理支援端末装置
21 通信手段
22 撮影手段
23 画面制御手段
24 文字認識手段
241 画面領域検出手段
242 抽出手段
243 2値化手段
244 テンプレート指定手段
245 認識手段
246 属性付与手段
247 認識情報通知手段
248 テンプレート取得手段
25 測位手段
26 情報送信手段
27 入力手段
28 表示手段
29 記憶手段
30 漁業管理支援サーバ
31 通信手段
32 海区解析手段
33 海洋情報取得手段
34 漁獲量登録手段
35 報告書生成手段
36 操業日誌生成手段
37 記憶手段
40 入力用端末装置
50 海洋気象情報提供サーバ
60 文字認識支援サーバ
70 作業用端末装置
W インターネット
D 表示画面
T 潮流計
G,G1~G4 撮影画像
RR 合成画像
F 周囲枠
V 仮想枠
L 仮想線
B 二次元バーコード
R 反射光
P1 操作画面
B11,B12 ボタン
S 測位衛星
R11 潮速表示欄
R12 潮向表示欄
R13 潮水温表示欄
R1 月日欄
R2 投網開始時刻欄
R3 漁区欄
R4 投網終了時刻欄
R5 水温欄
R6 魚種別漁獲量欄
S1 潮速領域
S2 潮向領域
S3 潮温度領域
10 Fisheries
Claims (18)
前記撮影画像から前記文字の文字色を示す第1色データ以外の画素の色データを第2色データに置換した2値画像を生成する2値化手段と、
前記2値画像に含まれる前記第1色データにより示された文字を認識して文字情報として出力する認識手段と、
前記表示画面を撮影方向を変更しながら撮影し、前記表示画面を矩形状の表示画面へ射影変換した、複数枚の撮影画像または動画による撮影画像に基づいて、各画素から外れ値を除去して合成することで、前記文字への反射光および障害物の重畳が無い、または重畳が少ない撮影画像を生成する抽出手段とを備えた文字認識装置。 A character recognition device that optically recognizes characters from a captured image of a display screen on which characters are displayed, comprising:
a binarization means for generating a binary image by replacing color data of pixels other than first color data indicating a character color of the character from the photographed image with second color data;
a recognition means for recognizing a character represented by the first color data included in the binary image and outputting the character as character information ;
and an extraction means for generating a captured image in which there is no or minimal reflected light or obstacles on the characters, based on a plurality of captured images or video images obtained by photographing the display screen while changing the shooting direction and projecting the display screen onto a rectangular display screen, and removing outliers from each pixel and synthesizing the images .
前記撮影画像から前記文字の文字色を示す第1色データ以外の画素の色データを第2色データに置換した2値画像を生成する2値化手段と、
前記2値画像に含まれる前記第1色データにより示された文字を認識して文字情報として出力する認識手段と、
前記表示画面を撮影方向を変更しながら撮影した、複数枚の撮影画像または動画による撮影画像と、この撮影画像の画面領域を指定した領域指定済画像とにより、撮影方向に応じた撮影画像における画面領域を学習して構築した深層学習モデルに基づいて、撮影画像から前記表示画面の画面領域を推定し、この画面領域を射影変換により矩形状の画面領域に変換する画面領域検出手段とを備えた文字認識装置。 A character recognition device that optically recognizes characters from a captured image of a display screen on which characters are displayed, comprising:
a binarization means for generating a binary image by replacing color data of pixels other than first color data indicating a character color of the character from the photographed image with second color data;
a recognition means for recognizing a character represented by the first color data included in the binary image and outputting the character as character information ;
A character recognition device comprising: a screen area detection means for estimating the screen area of the display screen from a captured image based on a deep learning model constructed by learning the screen area in the captured image according to the shooting direction using a plurality of captured images or videos captured while changing the shooting direction of the display screen and an area-designated image in which the screen area of the captured image is designated; and for converting this screen area into a rectangular screen area by projective transformation .
前記撮影画像から前記文字の文字色を示す第1色データ以外の画素の色データを第2色データに置換した2値画像を生成する2値化手段と、
前記2値画像に含まれる前記第1色データにより示された文字を認識して文字情報として出力する認識手段と、
前記表示画面を撮影方向を変更しながら撮影した、複数枚の撮影画像または動画による撮影画像と、この撮影画像の画面領域を指定した領域指定済画像とにより、撮影方向に応じた撮影画像における画面領域を学習して構築した深層学習モデルに基づいて、撮影画像から前記表示画面の画面領域を推定し、この画面領域を射影変換により矩形状の画面領域に変換する画面領域検出手段と、
前記表示画面を撮影方向を変更しながら撮影し、前記表示画面を矩形状の表示画面へ射影変換した、複数枚の撮影画像または動画による撮影画像に基づいて、各画素から外れ値を除去して合成することで、前記文字への反射光および障害物の重畳が無い、または重畳が少ない撮影画像を生成する抽出手段とを備えた文字認識装置。 A character recognition device that optically recognizes characters from a captured image of a display screen on which characters are displayed, comprising:
a binarization means for generating a binary image by replacing color data of pixels other than first color data indicating a character color of the character from the photographed image with second color data;
a recognition means for recognizing a character represented by the first color data included in the binary image and outputting the character as character information ;
a screen area detection means for estimating a screen area of the display screen from a captured image based on a deep learning model constructed by learning a screen area in a captured image according to a shooting direction using a plurality of captured images or a video captured while changing a shooting direction of the display screen and an area-designated image in which a screen area of the captured image is designated, and converting the screen area into a rectangular screen area by projective transformation;
and an extraction means for generating a captured image in which there is no or minimal reflected light or obstacles on the characters, based on a plurality of captured images or video images obtained by photographing the display screen while changing the shooting direction and projecting the display screen onto a rectangular display screen, and removing outliers from each pixel and synthesizing the images .
前記認識用部材から前記撮影画像における前記表示画面の周囲枠を認識して、前記表示画面の画面領域を検出する画面領域検出手段を備えた請求項1記載の文字認識装置。 a recognition member for recognizing the range of the display screen is provided on a frame around the display screen;
2. The character recognition device according to claim 1 , further comprising screen area detection means for detecting a screen area of said display screen by recognizing a peripheral frame of said display screen in said photographed image from said recognition member.
前記画面領域検出手段は、前記撮影画像における前記周囲枠からの反射光による仮想枠を検出して、前記仮想枠により囲まれた画面領域を通知する請求項4記載の文字認識装置。 The recognition member is a peripheral frame formed of a retroreflective material,
5. The character recognition device according to claim 4, wherein said screen area detection means detects a virtual frame formed by reflected light from said peripheral frame in said photographed image, and notifies said user of the screen area surrounded by said virtual frame.
前記画面領域検出手段は、前記撮影画像における前記周囲枠の色による仮想枠を検出して、前記仮想枠により囲まれた画面領域を通知する請求項4記載の文字認識装置。 The identification member is a peripheral frame formed by colored tape,
5. The character recognition device according to claim 4, wherein said screen area detection means detects a virtual frame based on the color of the peripheral frame in said photographed image, and notifies the user of the screen area surrounded by said virtual frame.
前記画面領域検出手段は、前記撮影画像における前記二次元バーコードの位置を認識し、前記二次元バーコード同士の位置を結ぶ仮想枠を検出して、前記仮想枠により囲まれた画面領域を通知する請求項4記載の文字認識装置。 the recognition members are two-dimensional barcodes provided at four corners of the frame,
5. The character recognition device according to claim 4, wherein the screen area detection means recognizes the positions of the two-dimensional barcodes in the captured image, detects a virtual frame connecting the positions of the two-dimensional barcodes, and notifies the screen area surrounded by the virtual frame.
前記テンプレート指定手段は、前記縦長用のテンプレートと前記横長用のテンプレートとを、撮影姿勢に応じて切り替える請求項8記載の文字認識装置。 The storage means stores a portrait template corresponding to a portrait-oriented captured image captured with the display means oriented such that the length direction of the display means is aligned with the up-down direction, and a landscape template corresponding to a landscape-oriented captured image captured with the display means oriented such that the length direction of the display means is aligned with the left-right direction,
9. The character recognition device according to claim 8, wherein the template designation means switches between the portrait template and the landscape template depending on the photographing posture.
文字が表示された表示画面を撮影した撮影画像から前記文字を光学的に認識する文字認識装置として機能させるものであり、
前記撮影画像から前記文字の文字色を示す第1色データ以外の画素の色データを第2色データに置換した2値画像を生成する2値化手段、
前記2値画像に含まれる前記第1色データにより示された文字を認識して文字情報として出力する認識手段、
前記表示画面を撮影方向を変更しながら撮影し、前記表示画面を矩形状の表示画面へ射影変換した、複数枚の撮影画像または動画による撮影画像に基づいて、各画素から外れ値を除去して合成することで、前記文字への反射光および障害物の重畳が無い、または重畳が少ない撮影画像を生成する抽出手段として機能させる文字認識プログラム。 Computer,
The device functions as a character recognition device that optically recognizes characters from a captured image of a display screen on which characters are displayed,
a binarization means for generating a binary image by replacing color data of pixels other than first color data indicating a character color of the character from the photographed image with second color data;
a recognition means for recognizing a character represented by the first color data included in the binary image and outputting the character as character information ;
A character recognition program that functions as an extraction means for generating a captured image in which there is no or minimal reflected light or obstacles on the characters by photographing the display screen while changing the shooting direction and projecting the display screen onto a rectangular display screen, and then removing outliers from each pixel and synthesizing the images based on multiple captured images or video images .
前記表示画面を撮影した撮影画像から文字を光学的に認識して潮流情報を読み取る請求項1から15のいずれかの項に記載の文字認識装置と、
前記漁業者が操業した位置および日時を位置情報および日時情報として測位衛星からの信号に基づいて出力する測位手段と、
前記漁業者が操業して得た漁獲量が記載された仕切書であり、産地市場が発行する仕切書に基づいて入力用端末装置から入力された漁獲量を示す漁獲量情報と前記位置情報および前記日時情報と、前記潮流情報とに基づいて漁獲成績報告書または操業日誌のいずれか一方または両方を生成する漁業管理支援サーバと通信する通信手段と、
前記漁業管理支援サーバへ前記潮流情報、前記位置情報および前記日時情報を送信する情報送信手段とを備えた漁業管理支援端末装置。 An imaging means for imaging a display screen of a tidal current meter installed on a fishing boat on which a fisherman is aboard;
The character recognition device according to any one of claims 1 to 15, which optically recognizes characters from a captured image of the display screen to read tide trend information;
a positioning means for outputting the position and date and time of the fisherman's fishing operation as position information and date and time information based on a signal from a positioning satellite;
a catch invoice which describes the amount of catch obtained by the fishermen through their fishing operations, and a communication means for communicating with a fishery management support server which generates a fishing report or an operation logbook or both based on catch information indicating the amount of catch input from an input terminal device based on the invoice issued by the fishery market, the location information, the date and time information, and the tidal current information;
A fisheries management support terminal device comprising an information transmitting means for transmitting the tidal current information, the location information and the date and time information to the fisheries management support server.
前記漁業者が操業して得た漁獲量が記載された仕切書であり、産地市場が発行する仕切書に基づいて漁獲量を漁獲量情報として入力するための入力用端末装置と、
前記漁業管理支援端末装置からの前記潮流情報、前記位置情報および前記日時情報と前記入力用端末装置からの漁獲量情報とに基づいて漁獲成績報告書または操業日誌のいずれか一方または両方を生成する漁業管理支援サーバとを備えた漁業管理支援システム。 a fishery management support terminal device that outputs tidal current information read by optically recognizing characters from a photographed image of a display screen of a tidal current meter installed on a fishing boat on which a fisherman is aboard using the character recognition device according to any one of claims 1 to 15, and outputs the location and date and time at which the fisherman operated as location information and date and time information based on a signal from a positioning satellite;
an invoice indicating the amount of catch obtained by the fishermen through their fishing operations, and an input terminal device for inputting the amount of catch as catch information based on the invoice issued by the fishery market;
A fisheries management support system comprising a fisheries management support server that generates either a fishing performance report or an operation log, or both, based on the tidal current information, the location information, and the date and time information from the fisheries management support terminal device and the catch volume information from the input terminal device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020105309A JP7553907B2 (en) | 2020-06-18 | 2020-06-18 | Character recognition device, character recognition program, fisheries management support terminal device, and fisheries management support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020105309A JP7553907B2 (en) | 2020-06-18 | 2020-06-18 | Character recognition device, character recognition program, fisheries management support terminal device, and fisheries management support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021197066A JP2021197066A (en) | 2021-12-27 |
JP7553907B2 true JP7553907B2 (en) | 2024-09-19 |
Family
ID=79195741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020105309A Active JP7553907B2 (en) | 2020-06-18 | 2020-06-18 | Character recognition device, character recognition program, fisheries management support terminal device, and fisheries management support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7553907B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116386059A (en) * | 2023-02-22 | 2023-07-04 | 中国国家铁路集团有限公司 | A character positioning model training method, training device, recognition method and recognition device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009071689A (en) | 2007-09-14 | 2009-04-02 | Sony Corp | Image processing apparatus, image processing method, and imaging apparatus |
JP2014053693A (en) | 2012-09-05 | 2014-03-20 | Kyocera Corp | Information service system, electronic device, control method, and control program |
JP2016004553A (en) | 2014-06-19 | 2016-01-12 | 株式会社東芝 | Character search device, method, and program |
WO2019097690A1 (en) | 2017-11-17 | 2019-05-23 | 株式会社Pfu | Image processing device, control method, and control program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05307639A (en) * | 1992-04-30 | 1993-11-19 | Toshiba Corp | Device for detecting address area of postal matter |
-
2020
- 2020-06-18 JP JP2020105309A patent/JP7553907B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009071689A (en) | 2007-09-14 | 2009-04-02 | Sony Corp | Image processing apparatus, image processing method, and imaging apparatus |
JP2014053693A (en) | 2012-09-05 | 2014-03-20 | Kyocera Corp | Information service system, electronic device, control method, and control program |
JP2016004553A (en) | 2014-06-19 | 2016-01-12 | 株式会社東芝 | Character search device, method, and program |
WO2019097690A1 (en) | 2017-11-17 | 2019-05-23 | 株式会社Pfu | Image processing device, control method, and control program |
Non-Patent Citations (1)
Title |
---|
LIANG Chao, et al.,An automatic interpretation method for LCD images of digital measuring instruments,2011 4th International Congress on Image and Signal Processing,米国,IEEE,2011年10月15日,DOI: 10.1109/CISP.2011.6100623 |
Also Published As
Publication number | Publication date |
---|---|
JP2021197066A (en) | 2021-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shortis et al. | Design and calibration of an underwater stereo-video system for the monitoring of marine fauna populations | |
JP4647514B2 (en) | Aerial image processing apparatus and aerial image processing method | |
KR101423928B1 (en) | Image reproducing apparatus which uses the image files comprised in the electronic map, image reproducing method for the same, and recording medium which records the program for carrying the same method. | |
CN101919235A (en) | Orthophotographic image creating method and imaging device | |
WO2018135110A1 (en) | Information processing device, information processing method, program, and aerial target system | |
CN111765974B (en) | A wildlife observation system and method based on a micro-cooled infrared thermal imager | |
US20180046065A1 (en) | Aquatic visual data collector | |
CN109859269B (en) | Large-scale flow field measurement method and device for unmanned aerial vehicle based on shore-based video-assisted positioning | |
KR101874498B1 (en) | System and Method for Aerial Photogrammetry of Ground Control Point for Space Information Acquisition based on Unmanned Aerial Vehicle System | |
CN117671529B (en) | Unmanned aerial vehicle scanning measurement-based farmland water level observation device and observation method | |
CN116030194A (en) | Air-ground collaborative live-action three-dimensional modeling optimization method based on target detection avoidance | |
KR20210106422A (en) | Job control system, job control method, device and instrument | |
CN117516487A (en) | Medium-small river video flow test method | |
JP2022027802A (en) | Information processing device and program | |
Suka et al. | Processing photomosaic imagery of coral reefs using structure-from-motion standard operating procedures | |
JP2024039070A (en) | Feature management system | |
JP7553907B2 (en) | Character recognition device, character recognition program, fisheries management support terminal device, and fisheries management support system | |
CN112665554B (en) | Method and system for generating orthoimage | |
US20210093227A1 (en) | Image processing system and control method thereof | |
Šaškov et al. | Comparison of manual and semi-automatic underwater imagery analyses for monitoring of benthic hard-bottom organisms at offshore renewable energy installations | |
Louhaichi et al. | Digital charting technique for monitoring rangeland vegetation cover at local scale. | |
KR102393300B1 (en) | Object map generation system and method therefor | |
CN114399549A (en) | Panoramic overlay pattern spot rendering method and geographic national condition monitoring method and device | |
CN116645404B (en) | Photo GPS position information extraction matching method and extraction matching device | |
CN114119389A (en) | Image restoration method, system and storage module |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240220 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240828 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7553907 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |