[go: up one dir, main page]

JP2024068871A - Drawing Management System - Google Patents

Drawing Management System Download PDF

Info

Publication number
JP2024068871A
JP2024068871A JP2022179502A JP2022179502A JP2024068871A JP 2024068871 A JP2024068871 A JP 2024068871A JP 2022179502 A JP2022179502 A JP 2022179502A JP 2022179502 A JP2022179502 A JP 2022179502A JP 2024068871 A JP2024068871 A JP 2024068871A
Authority
JP
Japan
Prior art keywords
information
written
image data
data
written information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022179502A
Other languages
Japanese (ja)
Inventor
雅之 小林
Masayuki Kobayashi
真宏 原田
Masahiro Harada
絵里子 西口
Eriko Nishiguchi
豊 森
Yutaka Mori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
Original Assignee
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiwa House Industry Co Ltd filed Critical Daiwa House Industry Co Ltd
Priority to JP2022179502A priority Critical patent/JP2024068871A/en
Publication of JP2024068871A publication Critical patent/JP2024068871A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)

Abstract

To provide a drawing management system that digitizes character information written on a page on which a building drawing is drawn.SOLUTION: A drawing management system includes: an extraction unit that extracts written information from image data of an image including a drawing representing a building written on a paper and written information written on the paper; an identification unit that acquires at least text information from the written information in the image data; a data creation unit that creates drawing data by adding the text information of the written information acquired by the identification unit to the image data so that the text information is displayed in the image represented by the image data; and a storage unit that stores the drawing data.SELECTED DRAWING: Figure 1

Description

本発明は、紙面に記載された建物を表す図面と、紙面に記載された書き込み情報とを含む画像をデータ化し、画像のデータを蓄積する図面管理システムに係り、特に、建物の図面が記載された紙面に書き込まれた文字等の書き込み情報を、コンピュータで処理可能なテキストにする図面管理システムに関する。 The present invention relates to a drawing management system that digitizes images including drawings of buildings on paper and written information written on the paper, and stores the image data, and in particular to a drawing management system that converts written information such as characters written on paper on which building drawings are drawn into text that can be processed by a computer.

建物を設計して竣工する際、敷地図、配置図、平面図、及び立面図等の様々な図面が作成される。これらの図面は、竣工に至るまでの間に何度か変更が加えられることがある。しかも、建物の設計変更の指示、及び建物の設計に関する確認事項等は、図面が記載された紙面に直接書き込まれる。竣工に至るまでの間に図面の枚数は膨大なものとなる。このため、図面の管理が非常に煩雑である。そこで、図面を管理する方法が提案されている。 When designing and completing a building, various drawings such as site plans, layout plans, floor plans, and elevations are created. These drawings may undergo several changes before the building is completed. Furthermore, instructions for changes to the building's design and confirmations regarding the building's design are written directly on the paper on which the drawings are drawn. By the time the building is completed, the number of drawings can become enormous. This makes managing the drawings extremely cumbersome. As a result, a method for managing the drawings has been proposed.

例えば、特許文献1には、住宅建築の際に作成される膨大な数の図面を効率的に管理するとともに、竣工までの間に多く発生する手書き修正図面を簡易に図面データとしてデータベースに登録することが可能な図面管理システムが提案されている。 For example, Patent Document 1 proposes a drawing management system that efficiently manages the huge number of drawings created when building a house, and that can easily register the handwritten revisions to drawings that are often made up until completion as drawing data in a database.

特開2008-21025号公報JP 2008-21025 A

特許文献1では、手書き修正図面を読み取ってデータを保存しており、図面に書き込まれた文字等も画像として保存される。このため、図面に書き込まれた内容を確認することができるが、書き込まれた内容を利用するには、コンピュータで処理可能なテキストにする必要がある。 In Patent Document 1, handwritten revised drawings are read and the data is saved, and any characters written on the drawings are also saved as images. This makes it possible to check what has been written on the drawings, but to use what has been written, it is necessary to convert it into text that can be processed by a computer.

そこで、本発明は、上記の課題に鑑みてなされたものであり、その目的とするところは、建物の図面が記載された紙面に書き込まれた文字情報等をデータ化する図面管理システムを提供することである。 Therefore, the present invention was made in consideration of the above problems, and its purpose is to provide a drawing management system that digitizes text information and other information written on paper on which building drawings are drawn.

上記の課題は、本発明の図面管理システムによれば、紙面に記載された建物を表す図面と、紙面に記載された書き込み情報とを含む画像の画像データから書き込み情報を抽出する抽出部と、画像データにおける書き込み情報から少なくともテキスト情報を取得する識別部と、識別部で取得された書き込み情報のテキスト情報を画像データで表される画像にテキスト情報が表示されるように画像データに付加して図面データを作成するデータ作成部と、図面データを蓄積する蓄積部とを有する、ことにより解決される。
上記のように構成された本発明の図面管理システムでは、建物の図面に書き込まれた文字情報等をデータ化できる。
上記の図面管理システムにおいて、紙面に記載された建物を表す図面と、紙面に記載された書き込み情報とを含む画像の画像データを取得する取得部を有すると、好適である。
上記の構成によれば、画像データを容易に取得できる。
The above problem is solved by the drawing management system of the present invention, which has an extraction unit that extracts written information from image data of an image including a drawing representing a building written on paper and written information written on the paper, an identification unit that acquires at least text information from the written information in the image data, a data creation unit that creates drawing data by adding the text information of the written information acquired by the identification unit to the image data so that the text information is displayed in the image represented by the image data, and a storage unit that stores the drawing data.
In the plan management system of the present invention configured as described above, character information and the like written on building plans can be digitized.
It is preferable that the above-mentioned drawing management system further comprises an acquisition unit for acquiring image data of an image including a drawing representing a building drawn on paper and written information written on the paper.
According to the above configuration, image data can be easily acquired.

また、上記の図面管理システムにおいて、抽出部は、画像データが示す画像を複数の領域に分割し、領域毎に書き込み情報を抽出すると、好適である。
上記の構成によれば、書き込み情報の抽出を容易にでき、かつ抽出位置の特定も容易にできる。
また、上記の図面管理システムにおいて、データ作成部は、書き込み情報のテキスト情報を、画像データにおける書き込み情報が抽出された領域と対応する位置に表示されるように画像データに付加すると、より好適である。
上記の構成によれば、書き込み情報の位置と、図面データ上の位置とが対応するため、書き込み情報を認識しやすい。
また、上記の図面管理システムにおいて、データ作成部は、紙面に記載された書き込み情報が矢印又は指示線を含む場合、矢印又は指示線の先端の位置に基づいて設定された箇所に、書き込み情報に基づくテキスト情報が表示されるように画像データに付加すると、さらに好適である。
上記の構成によれば、書き込み情報が指し示す場所等を明確にできる。
In the above-mentioned drawing management system, it is preferable that the extraction unit divides the image indicated by the image data into a plurality of areas and extracts the written information for each area.
According to the above configuration, the written information can be easily extracted, and the extraction position can also be easily specified.
In the above-described drawing management system, it is more preferable that the data creation unit adds text information of the written information to the image data so that the text information is displayed at a position in the image data corresponding to the area from which the written information was extracted.
According to the above configuration, the position of the written information corresponds to a position on the drawing data, so that the written information is easy to recognize.
Furthermore, in the above-mentioned drawing management system, it is even more preferable that when the written information written on the paper includes an arrow or an indication line, the data creation unit adds text information based on the written information to the image data so that the text information is displayed at a location set based on the position of the tip of the arrow or indication line.
According to the above configuration, it is possible to clarify the location, etc., indicated by the written information.

また、上記の図面管理システムにおいて、抽出部で書き込み情報が複数抽出された場合、識別部は、それぞれの書き込み情報を分類すると、なお一層好適である。
上記の構成によれば、書き込み情報を分類することで、書き込み情報の関係を明確にできる。
また、上記の図面管理システムにおいて、識別部による書き込み情報の分類は、紙面におけるそれぞれの書き込み情報の位置情報、又は書き込み情報における文字の向きが用いられると、より一段と好適である。
上記の構成によれば、書き込み情報の分類を容易にできる。
また、上記の図面管理システムにおいて、データ作成部は、画像データが示す画像のうち、紙面の建物を表す図面に相当する領域以外の領域を白紙領域に変更した後に、白紙領域に、書き込み情報に基づくテキスト情報が表示されるように、テキスト情報を画像データに付加すると、より一段と好適である。
上記の構成によれば、テキスト情報への画像データの付加を容易にできる。
Furthermore, in the above-mentioned drawing management system, when the extracting section extracts a plurality of pieces of written information, it is even more preferable that the identifying section classifies each piece of written information.
According to the above configuration, by classifying the written information, the relationship between the written information can be clarified.
In the above-mentioned drawing management system, the classification of the written information by the identification unit is even more preferable if position information of each piece of written information on the paper or the orientation of characters in the written information is used.
According to the above configuration, the written information can be easily classified.
Furthermore, in the above-mentioned drawing management system, it is even more preferable if the data creation unit changes areas of the image represented by the image data other than the areas corresponding to the drawing of the building on paper to blank areas, and then adds text information to the image data so that text information based on the written information is displayed in the blank areas.
According to the above configuration, image data can be easily added to text information.

上記の図面管理システムにおいて、データ作成部は、書き込み情報を記載したユーザのユーザ情報、及び書き込み情報を記載した日付情報のうち、少なくとも一方を画像データに付加すると、より一段と好適である。
上記の構成によれば、書き込み情報の記載日、記載したユーザを容易に特定できる。
図面データの付加を容易にできる。
上記の図面管理システムにおいて、紙面に記載された建物を表す図面と、紙面に記載された書き込み情報とを含む画像の画像データと、蓄積部に蓄積された図面データとを比較する比較部を有し、蓄積部に蓄積された図面データのうち、画像データと関連する図面データがあると比較部が判定した場合、画像データにより得られた図面データを、関連する図面データに関連付けて、蓄積部に蓄積すると、より一段と好適である。
上記の構成によれば、取得部が取得した画像データを、図面データに関連付けて蓄積部に蓄積できる。
In the above-mentioned drawing management system, it is even more preferable if the data creation unit adds at least one of user information of the user who wrote the written information and date information on when the written information was written to the image data.
According to the above configuration, the posting date of the posted information and the user who posted it can be easily identified.
It is easy to add drawing data.
In the above-mentioned drawing management system, a comparison unit is provided which compares image data of an image including a drawing of a building written on paper and written information written on the paper with drawing data stored in the storage unit, and when the comparison unit determines that there is drawing data related to the image data among the drawing data stored in the storage unit, it is even more preferable to associate the drawing data obtained from the image data with the related drawing data and store it in the storage unit.
According to the above configuration, the image data acquired by the acquisition unit can be stored in the storage unit in association with the drawing data.

本発明の図面管理システムによれば、建物の図面が記載された紙面に書き込まれた文字情報等をデータ化することができる。 The drawing management system of the present invention can digitize text information written on paper on which building drawings are drawn.

本発明の一実施形態の図面管理システムの一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of a drawing management system according to an embodiment of the present invention; (a)~(e)は本発明の一実施形態の図面管理システムを用いた図面の管理の一例を工程順に示す模式図である。1A to 1E are schematic diagrams showing an example of management of drawings in the order of steps using a drawing management system according to one embodiment of the present invention. (a)は本発明の一実施形態の図面管理システムで取得された画像データの一例を示す模式図であり、(b)は図3(a)の要部拡大図であり、(c)は図3(a)の要部拡大図である。3A is a schematic diagram showing an example of image data acquired by a drawing management system of one embodiment of the present invention, FIG. 3B is an enlarged view of a main portion of FIG. 3A, and FIG. 3C is an enlarged view of a main portion of FIG. 3A. (a)は本発明の一実施形態の図面管理システムにより得られた図面データの第1の例を示す模式図であり、(b)は本発明の一実施形態の図面管理システムにより得られた図面データの第2の例を示す模式図である。1A is a schematic diagram showing a first example of drawing data obtained by a drawing management system of one embodiment of the present invention, and FIG. 1B is a schematic diagram showing a second example of drawing data obtained by a drawing management system of one embodiment of the present invention. (a)は本発明の一実施形態の図面管理システムにより得られた図面データの第3の例を示す模式図であり、(b)は図5(a)の要部拡大図である。5A is a schematic diagram showing a third example of drawing data obtained by the drawing management system of one embodiment of the present invention, and FIG. 5B is an enlarged view of a main portion of FIG. 5A. 本発明の一実施形態の図面管理システムにより得られた図面データの第4の例を示す模式図である。FIG. 13 is a schematic diagram showing a fourth example of drawing data obtained by the drawing management system of one embodiment of the present invention. 本発明の一実施形態の図面管理システムにより得られた図面データの第5の例を示す模式図である。FIG. 13 is a schematic diagram showing a fifth example of drawing data obtained by the drawing management system of one embodiment of the present invention. 本発明の一実施形態の図面管理システムを用いた図面の管理の一例を示すフローチャートである。1 is a flowchart showing an example of management of drawings using a drawing management system according to an embodiment of the present invention.

<<本発明の一つの実施形態に係る図面管理システムについて>>
以下、本発明の一つの実施形態(以下、本実施形態)について、添付の図面を参照しながら説明する。
なお、図面では、説明を分かり易くするために幾分簡略化及び模式化して図示している。また、図中に示すサイズ(寸法)等についても、実際のものとは異なっている。
<<About a drawing management system according to one embodiment of the present invention>>
Hereinafter, one embodiment of the present invention (hereinafter, the present embodiment) will be described with reference to the accompanying drawings.
In the drawings, the illustrations are somewhat simplified and schematic in order to make the explanation easier to understand, and the sizes (dimensions) shown in the drawings are also different from the actual ones.

[図面管理システム]
図1は本発明の一実施形態の図面管理システムの一例を示す模式図である。
図1に示す図面管理システム10は、処理ユニット12と入力部14と表示部16とを有する。
処理ユニット12は、取得部20、比較部22、抽出部24、識別部26、データ作成部28、蓄積部30、メモリ32及び制御部34を有する。処理ユニット12の各部は、制御部34により制御される。
図面管理システム10において、処理ユニット12はROM等に記憶されたプログラム(コンピュータソフトウェア)を、制御部34で実行することにより、取得部20、比較部22、抽出部24、識別部26、データ作成部28、及び蓄積部30の各部を機能的に形成するコンピュータ等のハードウェアを用いて構成されてもよいし、各部位が専用回路で構成された専用装置であってもよく、クラウド上で実行されるようにサーバーで構成してもよい。
[Drawing management system]
FIG. 1 is a schematic diagram showing an example of a drawing management system according to an embodiment of the present invention.
The drawing management system 10 shown in FIG. 1 includes a processing unit 12 , an input unit 14 , and a display unit 16 .
The processing unit 12 includes an acquisition section 20, a comparison section 22, an extraction section 24, an identification section 26, a data creation section 28, a storage section 30, a memory 32, and a control section 34. Each section of the processing unit 12 is controlled by the control section 34.
In the drawing management system 10, the processing unit 12 may be configured using hardware such as a computer that functionally forms each of the acquisition unit 20, comparison unit 22, extraction unit 24, identification unit 26, data creation unit 28, and storage unit 30 by executing a program (computer software) stored in ROM or the like in the control unit 34, or each part may be a dedicated device composed of a dedicated circuit, or it may be configured as a server to be executed on the cloud.

入力部14は、例えば、処理ユニット12に各種情報をオペレータの指示により入力するための各種の入力デバイスである。入力部14は、例えば、マウス及びキーボード等である。また、入力部14は、紙面に記載された建物を表す図面と、紙面に記載された書き込み情報とを含む画像の画像データが収納データとして記憶された記憶媒体(図示せず)から画像データを、メモリ32に入力させるものでもよい。この場合、入力部14は、例えば、取得部20又はメモリ32に対応するインターフェース(図示せず)を有し、インターフェースを介して記憶媒体から取得部20又はメモリ32に、上述の収納データを記憶させる。 The input unit 14 is, for example, one of various input devices for inputting various information to the processing unit 12 in response to an instruction from an operator. The input unit 14 is, for example, a mouse and a keyboard. The input unit 14 may also input image data to the memory 32 from a storage medium (not shown) in which image data of an image including a drawing of a building written on a page and written information written on the page is stored as storage data. In this case, the input unit 14 has, for example, an interface (not shown) corresponding to the acquisition unit 20 or the memory 32, and stores the above-mentioned storage data from the storage medium to the acquisition unit 20 or the memory 32 via the interface.

表示部16は、例えば、図面管理システム10で得られた画像データで表される画像、図面データで表される画像を表示するものであり、公知の各種のディスプレイが用いられる。なお、表示部16には、画像データ又は図面データ等を紙等の出力媒体に表示するためのプリンタ等のデバイスも含まれる。
また、図面管理システム10は、スマートフォン(図示せず)又はタブレット端末(図示せず)等の画面に、画像データで表される画像、図面データで表される画像を表示させることもできる。この場合、スマートフォン又はタブレット端末が表示部16であり、さらには入力部14も兼ねる。
The display unit 16 displays, for example, an image represented by image data or drawing data obtained by the drawing management system 10, and may be any of a variety of known displays. The display unit 16 also includes a device such as a printer for displaying image data or drawing data on an output medium such as paper.
Furthermore, the drawing management system 10 can display images represented by image data and images represented by drawing data on a screen of a smartphone (not shown) or a tablet terminal (not shown), etc. In this case, the smartphone or tablet terminal is the display unit 16 and also serves as the input unit 14.

<処理ユニット12>
図2(a)~(e)は本発明の一実施形態の図面管理システムを用いた図面の管理の一例を工程順に示す模式図である。
取得部20は、紙面40(図2(a)参照)に記載された建物を表す図面42(図2(a)参照)と、紙面40に記載された書き込み情報44(図2(a)参照)とを含む画像45(図2(a)参照)の画像データ50(図2(b)参照)を取得する。画像データ50とは、コンピュータで処理可能なデータで表された画像のデータのことである。画像データは、上述の画像45(図2(a)参照)を表すデジタルデータを含む。
書き込み情報44とは、例えば、建物の設計変更の指示、及び建物の設計に関する確認事項等のことであり、図面42が記載された紙面40に直接書き込まれる。書き込み情報44には、紙面40に記載された文字、記号、図形及び各種の線等が含まれる。
紙面40への書き込み情報44の記載方法は、特に限定されるものではなく、手書きでも、プリンタで印刷されたものを貼り付けたものでもよい。
取得部20は、上述の画像データ50(図2(b)参照)を取得できれば、特に限定されるものではない。取得部20としては、例えば、スキャナー、及びデジタルカメラ又はスマートフォン等の撮像デバイスが例示される。すなわち、処理ユニット12は、取得部20として機能する撮像デバイスを含むものであってもよい。
また、画像データとしては、上述のように記憶媒体に記憶された画像データを用いることもでき、画像データは図面管理システム10の外部からも取得できる。このため、図面管理システム10において、取得部20は必ずしも必要ではない。
<Processing unit 12>
2A to 2E are schematic diagrams showing an example of management of drawings in the order of steps using the drawing management system of one embodiment of the present invention.
The acquisition unit 20 acquires image data 50 (see FIG. 2(b)) of an image 45 (see FIG. 2(a)) including a drawing 42 (see FIG. 2(a)) representing a building written on a sheet of paper 40 (see FIG. 2(a)) and written information 44 (see FIG. 2(a)) written on the sheet of paper 40. The image data 50 refers to image data represented as data that can be processed by a computer. The image data includes digital data representing the above-mentioned image 45 (see FIG. 2(a)).
The written information 44 is, for example, instructions for changes to the design of the building, confirmation items regarding the design of the building, and the like, and is written directly on the paper 40 on which the drawing 42 is drawn. The written information 44 includes characters, symbols, figures, various lines, and the like written on the paper 40.
The method of writing the written information 44 on the paper surface 40 is not particularly limited, and the information may be handwritten or printed and pasted on the paper surface 40 .
The acquiring unit 20 is not particularly limited as long as it can acquire the above-mentioned image data 50 (see FIG. 2B). Examples of the acquiring unit 20 include an imaging device such as a scanner, a digital camera, or a smartphone. That is, the processing unit 12 may include an imaging device that functions as the acquiring unit 20.
In addition, as the image data, image data stored in a storage medium as described above can be used, and the image data can be acquired from outside the drawing management system 10. For this reason, the acquisition unit 20 is not necessarily required in the drawing management system 10.

比較部22は、取得部20又は外部から取得した画像データと、蓄積部30に蓄積された図面データとを比較する。比較部22は、上述の画像データと、蓄積部30に蓄積された図面データとの一致と不一致とを判定し、かつ関連についても判定する。
画像データと、蓄積部30に蓄積された図面データ60(図2(d)参照)のうち、関連する図面データがあると比較部22が判定した場合、画像データにより得られた図面データを、関連すると判定された図面データに関連付けて蓄積部30に蓄積する。
比較部22の比較により、画像データが、蓄積部に蓄積された図面データに関連するものか、新規に作成されたものか、蓄積部30に蓄積された図面データと同じものかを判定できる。
画像データが蓄積部30に蓄積された図面データと同じと判定された場合には、後述の書き込み情報の抽出等を実施しない。これにより、図面データが蓄積部30に重複して蓄積されることを防止でき、余計な処理をすることを防止できる。
The comparison unit 22 compares the image data acquired from the acquisition unit 20 or from outside with the drawing data stored in the storage unit 30. The comparison unit 22 determines whether the image data and the drawing data stored in the storage unit 30 match or do not match, and also determines whether they are related to each other.
If the comparison unit 22 determines that there is related drawing data between the image data and the drawing data 60 (see Figure 2 (d)) stored in the storage unit 30, the drawing data obtained from the image data is associated with the drawing data determined to be related and stored in the storage unit 30.
Through the comparison by the comparison section 22 , it can be determined whether the image data is related to the drawing data stored in the storage section, is newly created, or is the same as the drawing data stored in the storage section 30 .
When it is determined that the image data is the same as the drawing data stored in the storage unit 30, the process of extracting written information, which will be described later, is not performed. This makes it possible to prevent the drawing data from being stored in the storage unit 30 in duplicate, and to prevent unnecessary processing.

比較部22は、紙面40(図2(a)参照)に、例えば、管理番号又はバーコード等の管理情報が付与されていれば、管理情報を用いて比較する。管理情報には、例えば、建物を表す図面42の識別情報、及び書き込み情報44を書き込んだ日時等の情報が含まれる。
なお、バーコードの種類は特に限定されるものではなく、1次元コード、2次元コード等でもよいし、JAN、EAN、NW-7、CODE39等どのような形式のものであってもよい。
ここで、建物の設計変更等により図面が変更、詳しくは改訂又は修正されることがある。この場合、建物は同じであるが図面が変更されている。建物の図面が変更された際には、管理情報も更新される、このとき、管理情報は、例えば、更新前の管理情報に何版かを示す情報を含む。この何版かを示す情報を用いることで、画像データが、蓄積された図面データと関連するか否かを判定できる。
If management information such as a management number or a barcode is attached to the paper surface 40 (see FIG. 2A), the comparison unit 22 uses the management information to make the comparison. The management information includes, for example, identification information of a drawing 42 representing a building, and information such as the date and time when the written information 44 was written.
The type of barcode is not particularly limited, and may be a one-dimensional code, a two-dimensional code, or any other format such as JAN, EAN, NW-7, CODE39, or the like.
Here, due to design changes of the building, the drawings may be changed, more specifically, revised or amended. In this case, the building remains the same but the drawings have changed. When the building drawings are changed, the management information is also updated. In this case, the management information before the update includes information indicating the version. By using this information indicating the version, it is possible to determine whether the image data is related to the accumulated drawing data.

抽出部24は、画像データ50(図2(b)参照)から、画像化された書き込み情報を抽出する。書き込み情報の抽出方法は、特に限定されるものではなく、公知の画像解析方法が利用可能である。
抽出部24は、画像データ50から、書き込み情報を抽出する際、画像データ50に対して、仮想的に直交するグリッド線55(図2(b)参照)を設定し、画像データ50が示す画像51(図2(b)参照)を複数のグリッド領域55a(図2(b)参照)に分割する。抽出部24は、このグリッド線55により区画されたグリッド領域55a毎に、書き込み情報を抽出することが好ましい。グリッド領域55aを目安にして、書き込み情報を抽出することにより、書き込み情報の抽出を容易にでき、かつ抽出位置の特定も容易にできる。
抽出部24は、具体的には、画像データ50において、建物を表す図面42(図2(a)参照)に相当する領域52(図2(b)参照)を抽出し、建物を表す図面42に相当する領域52と、建物を表す図面42に相当する領域52以外の領域54(図2(b)参照)とに分ける。
次に、上述のように画像データ50が示す画像51を複数のグリッド領域55aに分割した後、建物を表す図面42に相当する領域52と、建物を表す図面42に相当する領域52以外の領域54とについて書き込み情報を抽出する。
The extraction unit 24 extracts imaged written information from the image data 50 (see FIG. 2B). The method for extracting the written information is not particularly limited, and a known image analysis method can be used.
When extracting written information from image data 50, extraction unit 24 sets grid lines 55 (see FIG. 2(b)) virtually perpendicular to image data 50, and divides image 51 (see FIG. 2(b)) represented by image data 50 into a plurality of grid areas 55a (see FIG. 2(b)). It is preferable for extraction unit 24 to extract written information for each grid area 55a partitioned by grid lines 55. By using grid areas 55a as a guide to extract written information, it is possible to easily extract written information and also to easily identify the extraction position.
Specifically, the extraction unit 24 extracts an area 52 (see FIG. 2(b)) in the image data 50 that corresponds to a drawing 42 (see FIG. 2(a)) representing a building, and divides the image data 50 into the area 52 that corresponds to the drawing 42 representing the building and an area 54 (see FIG. 2(b)) other than the area 52 that corresponds to the drawing 42 representing the building.
Next, as described above, the image 51 represented by the image data 50 is divided into a plurality of grid areas 55a, and then writing information is extracted from the area 52 corresponding to the drawing 42 representing the building and from an area 54 other than the area 52 corresponding to the drawing 42 representing the building.

なお、建物を表す図面42に相当する領域52以外の領域54は、紙面40(図2(a)参照)の余白に相当する。
書き込み情報は、1つに限定されるものではなく、複数あることが多い。このため、抽出された書き込み情報の抽出位置を特定し、抽出された書き込み情報の抽出位置の情報をメモリ32に記憶しておくことが好ましい。複数の書き込み情報は、後述のように識別部26で分類される。書き込み情報を分類することで、書き込み情報の関係を明確にできる。
The area 54 other than the area 52 corresponding to the drawing 42 representing the building corresponds to the margin of the paper surface 40 (see FIG. 2(a)).
The number of pieces of written information is not limited to one, but is often multiple. For this reason, it is preferable to specify the extraction position of the extracted written information and store the information of the extraction position of the extracted written information in the memory 32. The multiple pieces of written information are classified by the identification unit 26 as described later. By classifying the written information, the relationship between the written information can be clarified.

識別部26は、画像データ50における書き込み情報から少なくともテキスト情報を取得する。テキスト情報を取得するとは、コンピュータで処理可能なテキストにすることである。
識別部26のテキスト情報の取得方法は、コンピュータで処理可能なテキストをすることができれば、特に限定されるものではなく、公知のOCR(Optical Character Recognition)技術、画像解析技術、及びパターンマッチング技術を用いることができる。
識別部26は、書き込み情報には線又は図形が含まれることもあり、線及び図形を抽出することもできる。線及び図形の抽出には、公知の画像解析技術、又はパターンマッチング技術等を用いることができる。
識別部26で取得された、画像データの書き込み情報のテキスト情報は、メモリ32に記憶される。
The identification unit 26 acquires at least text information from the written information in the image data 50. Acquiring the text information means converting the text information into text that can be processed by a computer.
The method of acquiring text information by the identification unit 26 is not particularly limited as long as it can produce text that can be processed by a computer, and publicly known OCR (Optical Character Recognition) technology, image analysis technology, and pattern matching technology can be used.
The written information may contain lines or figures, and the recognition unit 26 can extract the lines and figures using known image analysis techniques, pattern matching techniques, or the like.
The text information of the written information in the image data acquired by the recognition unit 26 is stored in the memory 32 .

また、識別部26は、抽出部24で書き込み情報が複数抽出された場合、それぞれの書き込み情報を分類する。書き込み情報の分類については後に説明する。
書き込み情報を分類する際、複数の書き込み情報として抽出されたものであっても、実際には1つの書き込み情報であることもある。この場合、例えば、複数の書き込み情報が1つの書き込み情報とみなす範囲を決定する方法として、公知のOCRに用いられるブロック解析が利用可能である。
また、識別部26は、建物を表す図面42に相当する領域52(図2(b)参照)以外の領域54(図2(b)参照)を白紙領域54a(図2(c)参照)に変更することもできる。上述の領域54を白紙領域54aに変更するとは、画像データ50(図2(c)参照)が示す画像51(図2(b)参照)において、文字情報等がなく地色のみの領域にすることである。上述のように白紙領域54aに変更することにより、画像データ50が示す画像51のうち、文字情報等がない領域にテキスト情報を付加することになるため、テキスト情報の画像データ50への付加を容易に実施できる。
上述の領域54(図2(b)参照)を白紙領域54a(図2(c)参照)に変更することを白紙化ともいう。
Furthermore, when a plurality of pieces of written information are extracted by the extraction unit 24, the identification unit 26 classifies each piece of written information. The classification of written information will be described later.
When classifying written information, even if multiple pieces of written information are extracted, they may actually be one piece of written information. In this case, for example, a block analysis used in a known OCR can be used as a method for determining the range in which multiple pieces of written information are regarded as one piece of written information.
The identification unit 26 can also change an area 54 (see FIG. 2(b)) other than the area 52 (see FIG. 2(b)) corresponding to the drawing 42 representing the building to a blank area 54a (see FIG. 2(c)). Changing the above-mentioned area 54 to a blank area 54a means making it an area of only background color without any text information, etc., in the image 51 (see FIG. 2(b)) represented by the image data 50 (see FIG. 2(c)). By changing to a blank area 54a as described above, text information is added to an area of the image 51 represented by the image data 50 that has no text information, etc., so that the text information can be easily added to the image data 50.
Changing the above-mentioned area 54 (see FIG. 2B) to a blank area 54a (see FIG. 2C) is also referred to as blanking.

データ作成部28は、識別部26で取得された書き込み情報のテキスト情報を画像データ50で表される画像51にテキスト情報62(図2(d)参照)が表示されるように画像データに付加して図面データ60(図2(d)参照)を作成する。
データ作成部28では、画像データ50で表される画像51において、テキスト情報が表示される位置を設定する。テキスト情報が表示される位置については後に詳細に説明する。
また、データ作成部28は、画像データにおけるテキスト情報の表示領域と、テキスト情報の内容を画像データに付加する。また、書き込み情報が図形及び線である場合も、テキスト情報と同様に画像データにおける表示位置及び図形又は線を表すデータを、画像データに付加する。図形又は線を表すデータは、特に限定されるものではなく、ラスターデータでもベクターデータでもよい。
データ作成部28は、このようにして、建物の図面に書き込まれた文字情報等をデータ化できる。
データ作成部28は、図面データ60の作成日時を図面データに付加することもできる。図面データ60の作成日時は、例えば、タイムスタンプを用いて付加できる。
また、データ作成部28は、書き込み情報の記載日時、及び書き込み情報を記載したユーザ情報のうち、少なくとも一方を画像データに付加することもできる。これにより、図面データ60において、書き込み情報の記載日、及び記載したユーザ等を容易に特定できるため、好ましい。
The data creation unit 28 adds the text information of the written information acquired by the identification unit 26 to the image data 50 so that text information 62 (see Figure 2 (d)) is displayed in the image 51 represented by the image data 50, thereby creating drawing data 60 (see Figure 2 (d)).
The data creation unit 28 sets the position at which the text information is to be displayed in the image 51 represented by the image data 50. The position at which the text information is to be displayed will be described in detail later.
The data creation unit 28 also adds the display area of the text information in the image data and the contents of the text information to the image data. Even if the written information is a figure and a line, the data representing the display position in the image data and the figure or line is added to the image data in the same manner as the text information. The data representing the figure or line is not particularly limited and may be raster data or vector data.
In this way, the data creation unit 28 can digitize the text information and the like written on the building drawings.
The data creating unit 28 can also add the creation date and time of the drawing data 60 to the drawing data. The creation date and time of the drawing data 60 can be added using, for example, a time stamp.
The data creating unit 28 can also add at least one of the date and time when the written information was written and the user information of the user who wrote the written information to the image data. This is preferable because it makes it easy to identify the date when the written information was written and the user who wrote it in the drawing data 60.

蓄積部30は、データ作成部28で作成された図面データ60(図2(d)参照)を蓄積する。蓄積部30は、特に限定されるものではなく、公知の各種の記憶媒体、例えば、HDD(Hard Disk Drive)、及びSSD(Solid State Drive)を利用できる。
図面データ60が新規に作成されたものである場合、図面データ60をそのまま蓄積部30に蓄積する。
関連するものがあると比較部22が判定した画像データにより得られた図面データ60の場合、図2(e)に示すように関連するとされた図面データ60に関連付けて蓄積部30に蓄積する。関連付けて蓄積部30に図面データ60を蓄積することにより、例えば、建物の設計変更の指示、及び建物の設計に関する確認事項等を、時系列で追って確認でき、建物を設計して竣工するまでの経緯を把握できるため、好ましい。
また、蓄積部30に蓄積された図面データは、変更できないようにしてもよい。
The storage unit 30 stores the drawing data 60 (see FIG. 2D ) created by the data creation unit 28. The storage unit 30 is not particularly limited, and various known storage media, such as a hard disk drive (HDD) and a solid state drive (SSD), can be used.
If the drawing data 60 is newly created, the drawing data 60 is stored in the storage unit 30 as is.
In the case of drawing data 60 obtained from image data that the comparison unit 22 has determined to be related, the drawing data 60 is stored in the storage unit 30 in association with the related drawing data 60 as shown in Fig. 2(e) . Storing the drawing data 60 in the storage unit 30 in association with the drawing data 60 makes it possible to follow and confirm, for example, instructions for design changes of a building and confirmation items regarding the design of the building in chronological order, and thus makes it possible to grasp the process from designing a building to its completion, which is preferable.
Furthermore, the drawing data stored in the storage unit 30 may be made unchangeable.

メモリ32は、処理ユニット12の各部の処理過程のデータを一時的に記憶するものである。また、上述のように入力部14から入力された、紙面に記載された建物を表す図面と、紙面に記載された書き込み情報とを含む画像の画像データ50(図2(b)参照)を記憶する。また、抽出された書き込み情報の抽出位置の情報、及び画像データの書き込み情報のテキスト情報がメモリ32に記憶される。
メモリ32は、蓄積部30と同様の構成とすることができ、例えば、公知の各種の記憶媒体、例えば、HDD及びSSDを利用できる。
図面管理システム10では、以上の構成により、建物の図面に書き込まれた文字情報等をデータ化できる。
The memory 32 temporarily stores data on the processing process of each part of the processing unit 12. It also stores image data 50 (see FIG. 2B) of an image including a drawing of a building written on a sheet of paper and written information written on the sheet of paper, which is input from the input unit 14 as described above. The memory 32 also stores information on the extraction position of the extracted written information and text information of the written information in the image data.
The memory 32 can have the same configuration as the storage unit 30, and can use various known storage media, for example, HDD and SSD.
With the above-described configuration, the drawing management system 10 can digitize text information and the like written on building drawings.

次に、書き込み情報の抽出、書き込み情報の分類について説明する。
図3(a)は本発明の一実施形態の図面管理システムで取得された画像データの一例を示す模式図であり、(b)は図3(a)の要部拡大図であり、(c)は図3(a)の要部拡大図である。
なお、図3(a)~(c)において、図2(a)~(e)と同一構成物には同一符号を付して、その詳細な説明は省略する。
Next, extraction of written information and classification of written information will be described.
FIG. 3(a) is a schematic diagram showing an example of image data acquired by a drawing management system of one embodiment of the present invention, (b) is an enlarged view of a main portion of FIG. 3(a), and (c) is an enlarged view of a main portion of FIG. 3(a).
In addition, in FIGS. 3(a) to 3(c), the same components as those in FIGS. 2(a) to 2(e) are denoted by the same reference numerals, and detailed description thereof will be omitted.

図3(a)に示す画像データ50について、建物を表す図面42(図2(a)参照)に相当する領域52以外の領域54において第1の領域56と、第2の領域57とに書き込み情報が抽出された場合について説明する。
第1の領域56では、図3(b)に示すように第1の書き込み情報56aと、第2の書き込み情報56bとが抽出されている。また、第1の書き込み情報56a及び第2の書き込み情報56bは、紙面におけるそれぞれの書き込み情報の位置情報が特定されており、抽出位置が特定されている。
例えば、第1の書き込み情報56aの抽出位置と、第2の書き込み情報56bの抽出位置とに基づいて分類する。この場合、抽出位置の距離に閾値を設定し、閾値を超える場合には、第1の書き込み情報56aと、第2の書き込み情報56bとは異なるグループに分類する。
抽出位置の距離が閾値以下である場合には、第1の書き込み情報56aと、第2の書き込み情報56bとは同じグループに分類する。抽出位置の距離が閾値以下についても段階分けて、同一の書き込み情報とする閾値を設定してもよい。この場合、抽出位置の距離がより近く、同一の書き込み情報とする閾値以下の場合には、同一の書き込み情報とする。
また、上述のように公知のOCRに用いられるブロック解析を用いて、書き込み情報を分けて、分類してもよい。
例えば、同じグループに分類された書き込み情報は同一人物による書き込みとし、異なるループに分類された書き込み情報は異なる人物による書き込みとする。
Regarding the image data 50 shown in Figure 3 (a), we will explain the case where written information is extracted in a first area 56 and a second area 57 in an area 54 other than an area 52 corresponding to a drawing 42 representing a building (see Figure 2 (a)).
3B, first written information 56a and second written information 56b are extracted from the first region 56. In addition, the position information of each piece of written information on the paper surface of the first written information 56a and the second written information 56b is specified, and the extracted positions are specified.
For example, the information is classified based on the extraction position of the first written information 56a and the extraction position of the second written information 56b. In this case, a threshold is set for the distance between the extraction positions, and if the distance exceeds the threshold, the first written information 56a and the second written information 56b are classified into different groups.
When the distance between the extraction positions is equal to or less than a threshold, the first written information 56a and the second written information 56b are classified into the same group. The threshold for classifying the information as the same may be set in stages even when the distance between the extraction positions is equal to or less than a threshold. In this case, when the distance between the extraction positions is closer and is equal to or less than the threshold for classifying the information as the same, the information is classified as the same.
Additionally, block analysis as used in known OCR techniques as described above may be used to separate and classify the written information.
For example, posted information classified into the same group is assumed to have been posted by the same person, and posted information classified into different loops is assumed to have been posted by different people.

また、第1の書き込み情報56a及び第2の書き込み情報56bのテキスト情報がある場合、文字の向きが異なる場合には異なるグループに分類し、文字の向きが同じ場合には同じグループに分類することもできる。文字の向きとは、紙面において文字列が記載されている向きであり、詳しくは、紙面の上下及び左右に対して上記の文字列中に含まれる1以上の文字が並ぶ方向である。
また、筆跡を用いて分類してもよい。筆跡が同じ場合、抽出位置の距離が閾値を超えていても、同じグループに分類する。
一方、筆跡が異なる場合、抽出位置の距離が閾値以下でも異なるグループに分類する。
上述のグループの分類は、抽出位置の距離、文字の向き、及び筆跡を適宜組合せて分類してもよい。なお、筆跡には、筆圧も含まれる。筆跡の一致不一致の判定には、パターンマッチング技術を用いることができる。また、予め筆跡を登録しておき、登録した筆跡を用いてパターンマッチング技術により筆跡の一致不一致を判定してもよい。
紙面における書き込み情報の位置情報、又は書き込み情報における文字の向きを用いることにより、書き込み情報の分類を容易にできる。
In addition, when there is text information of the first written information 56a and the second written information 56b, if the character orientations are different, they can be classified into different groups, and if the character orientations are the same, they can be classified into the same group. The character orientation is the direction in which a character string is written on the paper, and more specifically, the direction in which one or more characters included in the character string are arranged relative to the top, bottom, left, and right of the paper.
Also, classification may be performed using handwriting. If handwriting is the same, the images are classified into the same group even if the distance between the extracted positions exceeds a threshold.
On the other hand, if the handwriting is different, the handwriting is classified into a different group even if the distance between the extraction positions is equal to or less than the threshold value.
The above-mentioned classification into groups may be performed by appropriately combining the distance of the extraction position, the direction of the characters, and the handwriting. The handwriting may also include the writing pressure. A pattern matching technique may be used to determine whether the handwriting matches. Alternatively, the handwriting may be registered in advance, and the registered handwriting may be used to determine whether the handwriting matches.
By using position information of the written information on the paper or the orientation of characters in the written information, the written information can be easily classified.

ここで、図4(a)は本発明の一実施形態の図面管理システムにより得られた図面データの第1の例を示す模式図であり、(b)は本発明の一実施形態の図面管理システムにより得られた図面データの第2の例を示す模式図である。
なお、図4(a)及び(b)において、図2(a)~(e)と同一構成物には同一符号を付して、その詳細な説明は省略する。
Here, FIG. 4(a) is a schematic diagram showing a first example of drawing data obtained by a drawing management system of one embodiment of the present invention, and FIG. 4(b) is a schematic diagram showing a second example of drawing data obtained by a drawing management system of one embodiment of the present invention.
In addition, in FIGS. 4(a) and (b), the same components as those in FIGS. 2(a) to (e) are denoted by the same reference numerals, and detailed description thereof will be omitted.

図3(b)に示す第1の書き込み情報56aと第2の書き込み情報56bとが、抽出位置の距離が閾値を超え、かつ筆跡が同じ場合、同じグループに分類される。
図4(a)に示す図面データ60のように、第1の書き込み情報56aに基づく第1のテキスト情報62aと、第2の書き込み情報56bに基づく第2のテキスト情報62bとが表示されるように画像データに付加する。第1のテキスト情報62a及び第2のテキスト情報62bには、書き込み情報を記載したユーザ情報も含まれている。
また、図面データ60には、書き込み情報を記載した日付情報63を表示させることもできる。
If the distance between the extraction positions of the first written information 56a and the second written information 56b shown in FIG. 3B exceeds a threshold value and the handwriting is the same, the first written information 56a and the second written information 56b are classified into the same group.
4A, first text information 62a based on the first written information 56a and second text information 62b based on the second written information 56b are added to the image data so as to be displayed. The first text information 62a and the second text information 62b also include user information describing the written information.
Furthermore, the drawing data 60 can also display date information 63 on which the written information was written.

図3(b)に示す第1の書き込み情報56aと第2の書き込み情報56bとが、抽出位置の距離が閾値以下であり、かつ筆跡が異なる場合、異なるグループに分類される。
図4(a)に示す図面データ60のように、第1の書き込み情報56aに基づく第1のテキスト情報62cと、第2の書き込み情報56bに基づく第2のテキスト情報62dとが表示されるように画像データに付加する。第1のテキスト情報62c及び第2のテキスト情報62dには、書き込み情報を記載したユーザ情報も含まれている。
図4(a)に示す第1のテキスト情報62cと、第2のテキスト情報62dとは、書き込み情報のテキスト情報を、画像データにおける書き込み情報が抽出された領域と対応する位置に表示されるように画像データに付加している。これにより、書き込み情報の位置と、図面データ上の位置とが対応するため、書き込み情報を認識しやすい。
If the distance between the extraction positions of the first written information 56a and the second written information 56b shown in FIG. 3B is equal to or less than a threshold value and the handwriting is different, the first written information 56a and the second written information 56b are classified into different groups.
4A, first text information 62c based on the first written information 56a and second text information 62d based on the second written information 56b are added to the image data so as to be displayed. The first text information 62c and the second text information 62d also include user information describing the written information.
In the first text information 62c and the second text information 62d shown in Fig. 4(a), the text information of the written information is added to the image data so that the text information is displayed at a position corresponding to the area in the image data from which the written information is extracted. This makes it easy to recognize the written information because the position of the written information corresponds to the position on the drawing data.

また、図3(b)に示す第1の書き込み情報56aと第2の書き込み情報56bとが、抽出位置の距離が閾値を超え、かつ文字の向きが異なる場合、異なるグループに分類される。
図4(b)に示す図面データ60のように、第1の書き込み情報56aに基づく第1のテキスト情報64aと、第2の書き込み情報56bに基づく第2のテキスト情報64bとが表示されるように画像データに付加する。第1のテキスト情報64a及び第2のテキスト情報64bには、書き込み情報を記載したユーザ情報も含まれている。
また、複数の書き込み情報が互いに異なるグループに分類されることで、複数のグループがある場合、グループ毎に書き込み情報をまとめて表示するようにしてもよい。
Furthermore, if the distance between the extraction positions of the first written information 56a and the second written information 56b shown in FIG. 3B exceeds a threshold value and the character orientations are different, the first written information 56a and the second written information 56b are classified into different groups.
4B, first text information 64a based on the first written information 56a and second text information 64b based on the second written information 56b are added to the image data so as to be displayed. The first text information 64a and the second text information 64b also include user information describing the written information.
In addition, if multiple pieces of written information are classified into different groups, and there are multiple groups, the written information may be displayed together for each group.

図3(a)に示す第2の領域57では、図3(c)に示すように、第3の書き込み情報58と、第4の書き込み情報59aと、第5の書き込み情報59bとが抽出され、書き込み情報の抽出位置も特定されている。
第3の書き込み情報58と、第4の書き込み情報59aとは、これらの抽出位置の距離が閾値以下である場合、同じグループと分類される。
第3の書き込み情報58が線58aを示すものであり、第4の書き込み情報59aがテキスト情報を示すものである場合、線58aの一方の端部58bが矢印、他方の端部58cが線である場合、第3の書き込み情報58を、矢印を含む線と判定する。
また、第4の書き込み情報は、矢印が示す場所に関するテキスト情報であると判定する。この場合、例えば、矢印が示す場所の近くに、第4の書き込み情報に基づくテキスト情報を配置する。後述する矢印がない指示線の場合でも、指示線の一方の端の近傍に書き込み情報があり、同じグループと分類された際には、指示線の他方の端が示す場所の近くに、書き込み情報に基づくテキスト情報を配置する。
In the second area 57 shown in FIG. 3(a), the third written information 58, the fourth written information 59a, and the fifth written information 59b are extracted, as shown in FIG. 3(c), and the extraction positions of the written information are also identified.
The third written information 58 and the fourth written information 59a are classified into the same group when the distance between their extracted positions is equal to or smaller than a threshold value.
When the third written information 58 indicates a line 58a and the fourth written information 59a indicates text information, if one end 58b of the line 58a is an arrow and the other end 58c is a line, the third written information 58 is determined to be a line including an arrow.
Furthermore, the fourth written information is determined to be text information related to the location indicated by the arrow. In this case, for example, text information based on the fourth written information is arranged near the location indicated by the arrow. Even in the case of a direction line without an arrow, which will be described later, when there is written information near one end of the direction line and the direction line is classified into the same group, text information based on the written information is arranged near the location indicated by the other end of the direction line.

ここで、図5(a)は本発明の一実施形態の図面管理システムにより得られた図面データの第3の例を示す模式図であり、(b)は図5(a)の要部拡大図である。
なお、図5(a)及び(b)において、図2(a)~(e)と同一構成物には同一符号を付して、その詳細な説明は省略する。
図3(c)に示す第3の書き込み情報58と第4の書き込み情報59aとが同じグループである。図3(c)に示す第4の書き込み情報59aと、第5の書き込み情報59bとは抽出位置が閾値を超える場合、異なるグループに分類される。
図5(a)に示す図面データ60のように、第4の書き込み情報59aに基づく第4のテキスト情報65aと、図3(c)に示す第2の領域57の画像の一部66とが表示されるように画像データに付加する。
また、図5(a)に示す図面データ60において、第3の書き込み情報58の位置に対応する領域67に、図5(b)に示すように第3の書き込み情報58から抽出された線58aの一部と、矢印とを表示し、かつ矢印の近傍に、第4の書き込み情報59aに基づく第4のテキスト情報67aが表示されるように画像データに付加してもよい。また、矢印がある線ではなく、矢印がない指示線の場合もある。
このように、矢印又は指示線の先端の位置に基づいて設定された箇所に、第4の書き込み情報59aに基づく第4のテキスト情報67aが表示されるように画像データに付加すると、書き込み情報が指し示す場所等を明確にできるため、好ましい。
Here, FIG. 5(a) is a schematic diagram showing a third example of drawing data obtained by the drawing management system of one embodiment of the present invention, and (b) is an enlarged view of a main part of FIG. 5(a).
In addition, in FIGS. 5(a) and (b), the same components as those in FIGS. 2(a) to (e) are denoted by the same reference numerals, and detailed description thereof will be omitted.
The third written information 58 and the fourth written information 59a shown in Fig. 3C belong to the same group. The fourth written information 59a and the fifth written information 59b shown in Fig. 3C are classified into different groups when the extraction positions exceed the threshold value.
As shown in the drawing data 60 of FIG. 5(a), the fourth text information 65a based on the fourth written information 59a and a portion 66 of the image of the second area 57 shown in FIG. 3(c) are added to the image data so as to be displayed.
5(a), a part of the line 58a extracted from the third written information 58 and an arrow may be displayed in an area 67 corresponding to the position of the third written information 58 as shown in FIG. 5(b), and fourth text information 67a based on the fourth written information 59a may be displayed near the arrow. Also, instead of a line with an arrow, an indication line without an arrow may be displayed.
In this way, it is preferable to add the fourth text information 67a based on the fourth written information 59a to the image data so that it is displayed at a location set based on the position of the tip of the arrow or indication line, since this makes it possible to clearly indicate the location, etc., indicated by the written information.

なお、上述のように同じグループに分類された場合でも、画像データ50の建物を表す図面42に相当する領域52以外の領域54に、書き込み情報に基づくテキスト情報を表示させるスペースがないことがある。この場合、図6に示す図面データ60のように、同じグループのテキスト情報68とテキスト情報69とを離して表示するようにし、かつテキスト情報68とテキスト情報69とが同じグループであることを示す線70を付してもよい。 Even if the text information is classified into the same group as described above, there may be no space to display text information based on written information in area 54 other than area 52 corresponding to drawing 42 representing the building in image data 50. In this case, text information 68 and text information 69 of the same group may be displayed apart, as in drawing data 60 shown in FIG. 6, and a line 70 may be added to indicate that text information 68 and text information 69 are in the same group.

また、例えば、図7に示すように図面データ60を、第1のエリア60aと、第2のエリア60bとに分けてもよい。例えば、データ構成として、第1のエリア60aには、テキスト情報71、72、73だけを表示させるようにする。第2のエリア60bには、テキスト情報74と、テキスト情報とは異なる情報とを表示させるようにする。テキスト情報とは異なる情報とは、例えば、画像75である。
図面データ60は、第1のエリア60aと、第2のエリア60bとの2つに分けることに限定されるものではなく、3つ以上のエリアに分けてもよい。
また、複数のエリアがある場合、例えば、キーワードを設定し、該当するキーワードに関する書き込み情報を表示するようにしてもよい。
テキスト情報の表示形態は、特に限定されるものではなく、例えば、営業又は設計等のようなユーザの業務を含むユーザ情報と、書き込み情報の内容との組合せであってもよい。
7, the drawing data 60 may be divided into a first area 60a and a second area 60b. For example, the data may be configured such that only text information 71, 72, and 73 are displayed in the first area 60a. The second area 60b may display text information 74 and information other than the text information. The information other than the text information may be, for example, an image 75.
The drawing data 60 is not limited to being divided into two areas, the first area 60a and the second area 60b, but may be divided into three or more areas.
Furthermore, when there are a plurality of areas, for example, a keyword may be set and written information relating to the corresponding keyword may be displayed.
The display form of the text information is not particularly limited, and may be, for example, a combination of user information including the user's job, such as sales or design, and the contents of the written information.

[図面管理方法]
以下、図面管理方法について説明する。
図8は本発明の一実施形態の図面管理システムを用いた図面の管理の一例を示すフローチャートである。
図面管理方法は、例えば、上述の図1に示す図面管理システム10を用いて実施される。
まず、紙面40(図2(a)参照)に記載された建物を表す図面42(図2(a)参照)と、紙面40に記載された書き込み情報44(図2(a)参照)とを含む画像45(図2(a)参照)の画像データ50(図2(b)参照)を、図1に示す処理ユニット12の取得部20で取得する(ステップS10)。ステップS10により、紙面40の画像が画像データ化される。
なお、画像データ50は、上述のように記憶媒体に記憶された画像データを用いることもでき、画像データ50は図面管理システム10の外部からも取得できる。このため、ステップS10は必ずしも必要ではない。
[Drawing management method]
The drawing management method will be described below.
FIG. 8 is a flow chart showing an example of management of drawings using the drawing management system according to one embodiment of the present invention.
The drawing management method is implemented, for example, by using the drawing management system 10 shown in FIG.
First, image data 50 (see FIG. 2(b)) of an image 45 (see FIG. 2(a)) including a drawing 42 (see FIG. 2(a)) representing a building written on a page 40 (see FIG. 2(a)) and written information 44 (see FIG. 2(a)) written on the page 40 is acquired by the acquisition section 20 of the processing unit 12 shown in FIG. 1 (step S10). In step S10, the image of the page 40 is converted into image data.
As described above, the image data 50 may be image data stored in a storage medium, and the image data 50 may be obtained from outside the drawing management system 10. Therefore, step S10 is not necessarily required.

次に、書き込み情報を記載した日付情報、画像データ化した日時の情報、及び画像データ化した作業者の情報等を、画像データに付加する(ステップS12)。
なお、ステップS12は、後述のステップS26でまとめて実施してもよいため、必ずしも必要ではない。
Next, the date information on which the written information was written, the date and time when the image data was converted, and the information of the worker who converted the image data are added to the image data (step S12).
Note that step S12 is not necessarily required since it may be performed together with step S26 described later.

ステップS12では、紙面40に管理情報が付与されていれば、管理情報を画像データに付与する。
次に、取得部20が取得した画像データと、蓄積部30に蓄積された図面データとを比較し、取得部20が取得した画像データが新規であるか否かを判定する(ステップS14)。
ステップS14において、取得部20が取得した画像データが新規ではない場合、以降の処理は実施しない。取得部20が取得した画像データが新規であるか否かの判定には、例えば、建物を表す図面42の識別情報と、書き込み情報を書き込んだ日時等の情報とが用いられる。
取得した画像データの建物を表す図面42を表す識別情報と、蓄積部30に蓄積された図面データの建物を表す図面42の識別情報とが一致し、書き込み情報を書き込んだ日時の情報とが一致している場合、取得部20が取得した画像データが新規ではないと判定する。
また、取得した画像データの建物を表す図面42を表す識別情報と、蓄積部30に蓄積された図面データの建物を表す図面42の識別情報とが、例えば、版が違うだけであれば、関連すると判定する。
In step S12, if management information has been added to the paper surface 40, the management information is added to the image data.
Next, the image data acquired by the acquisition unit 20 is compared with the drawing data stored in the storage unit 30 to determine whether the image data acquired by the acquisition unit 20 is new or not (step S14).
In step S14, if the image data acquired by the acquisition unit 20 is not new, the following process is not performed. To determine whether the image data acquired by the acquisition unit 20 is new or not, for example, identification information of the drawing 42 representing the building and information such as the date and time when the written information was written are used.
If the identification information representing the drawing 42 representing a building in the acquired image data matches the identification information of the drawing 42 representing a building in the drawing data stored in the storage unit 30, and the information on the date and time when the written information was written matches, it is determined that the image data acquired by the acquisition unit 20 is not new.
In addition, if the identification information representing the drawing 42 representing the building in the acquired image data and the identification information of the drawing 42 representing the building in the drawing data stored in the storage unit 30 are different, for example, only in version, it is determined that they are related.

ステップS14において、取得した画像データが新規又は関連がある場合、画像データから書き込み情報を抽出する(ステップS16)。
ステップS16では、抽出部24で、画像データから書き込み情報を抽出する。例えば、画像データ50が示す画像51に設定した複数のグリッド領域55a毎に書き込み情報を抽出する。
次に、識別部26で、書き込み情報から少なくともテキスト情報を取得する(ステップS18)。書き込み情報からテキスト情報以外に、例えば、線及び図形等の画像情報を取得する。これにより、各種の図形、及び引出し線等の情報を得ることができる。
テキスト情報の取得には、上述のように公知のOCR技術を用いることができ、画像情報は、上述のように公知の画像解析技術、又はパターンマッチング技術を用いることができる。
In step S14, if the acquired image data is new or related, written information is extracted from the image data (step S16).
In step S16, the extracting unit 24 extracts the written information from the image data. For example, the extracted written information is extracted for each of the plurality of grid regions 55a set in the image 51 indicated by the image data 50.
Next, the recognition unit 26 acquires at least text information from the written information (step S18). In addition to the text information, image information such as lines and figures is acquired from the written information. This makes it possible to obtain information on various figures and leader lines.
The text information can be obtained using the known OCR technology as described above, and the image information can be obtained using the known image analysis technology or pattern matching technology as described above.

次に、識別部26で、抽出部24で書き込み情報が複数抽出された場合、それぞれの書き込み情報を分類する(ステップS20)。
ステップS20において、書き込み情報の分類は、上述のように書き込み情報の抽出位置の距離、テキスト情報で表される文字の向き、及び筆跡等を用いて分類する。
Next, when a plurality of pieces of written information are extracted by the extraction unit 24, the identification unit 26 classifies each piece of written information (step S20).
In step S20, the written information is classified using the distance from the extracted position of the written information, the orientation of characters represented by the text information, handwriting, and the like, as described above.

次に、画像データ50(図2(b)参照)が示す画像51において、建物を表す図面42に相当する領域52(図2(b)参照)以外の領域54(図2(b)参照)を白紙領域54a(図2(c)参照)に変更する(ステップS22)。
ステップS22において、領域54(図2(b)参照)を白紙領域54a(図2(c)参照)に変更する(白紙化)とは、上述のように画像データ50(図2(c)参照)が示す画像51において、文字情報等がない状態にすることである。上述のように白紙領域54aに変更することにより、画像データ50のデータがない領域にテキスト情報を付加することになるため、テキスト情報の画像データ50への付加を容易に実施できる。
Next, in the image 51 indicated by the image data 50 (see FIG. 2(b)), the area 54 (see FIG. 2(b)) other than the area 52 (see FIG. 2(b)) corresponding to the drawing 42 representing the building is changed to a blank area 54a (see FIG. 2(c)) (step S22).
In step S22, changing area 54 (see FIG. 2(b)) to blank area 54a (see FIG. 2(c)) (blanking) means that image 51 represented by image data 50 (see FIG. 2(c)) is made to have no text information or the like as described above. By changing to blank area 54a as described above, text information is added to an area of image data 50 that has no data, making it easy to add text information to image data 50.

次に、データ作成部28で、書き込み情報のテキスト情報を画像データ50で表される画像51にテキスト情報が表示されるように画像データに付加する(ステップS24)。ステップS24により図面データが得られる。
ステップS24では、例えば、画像データにおけるテキスト情報の表示領域と、テキスト情報の内容を画像データに付加する。また、図形及び線の場合も、テキスト情報と同様に画像データにおける表示位置、及び図形又は線を表すデータを、画像データに付加する。
図形又は線を表すデータは、特に限定されるものではなく、ラスターデータでもベクターデータでもよい。
Next, the data creation unit 28 adds the text information of the written information to the image data 50 so that the text information is displayed in the image 51 represented by the image data 50 (step S24).The drawing data is obtained by step S24.
In step S24, for example, the display area of the text information in the image data and the content of the text information are added to the image data. In addition, in the case of figures and lines, the display position in the image data and data representing the figure or line are added to the image data in the same manner as the text information.
The data representing the figure or line is not particularly limited, and may be raster data or vector data.

次に、データ作成部28で、図面データの作成日時、書き込み情報の記載日時、書き込み情報を記載したユーザ情報等を図面データに付加する(ステップS26)。
ステップS26では、タイムスタンプを用いて図面データの作成日時を付加することもできる。
次に、作成した図面データ60(図2(d)参照)を、蓄積部30に蓄積する(ステップS28)。
ステップS28において、図面データ60が新規に作成されたものである場合、図面データ60をそのまま蓄積部30に蓄積する。
一方、ステップS14において、比較部22が、取得部20が取得した画像データと、蓄積部30に蓄積された図面データとが関連すると判定した場合、ステップS28では、取得部20が取得した画像データにより得られる図面データを、蓄積部30に、比較した図面データに関連付けて蓄積する。このようにして建物の図面が管理される。
Next, the data creating unit 28 adds to the drawing data the creation date and time of the drawing data, the date and time of writing the written-in information, user information who wrote the written-in information, and the like (step S26).
In step S26, a time stamp can be used to add the creation date and time of the drawing data.
Next, the created drawing data 60 (see FIG. 2D) is stored in the storage unit 30 (step S28).
In step S28, if the drawing data 60 is newly created, the drawing data 60 is stored in the storage unit 30 as is.
On the other hand, if the comparison unit 22 determines in step S14 that the image data acquired by the acquisition unit 20 and the drawing data stored in the storage unit 30 are related to each other, then in step S28, the drawing data obtained from the image data acquired by the acquisition unit 20 is stored in the storage unit 30 in association with the compared drawing data. In this manner, the building drawings are managed.

上述のように、建物を設計して竣工する際、敷地図、配置図、平面図、及び立面図等の様々な図面が作成される。これらの図面は、竣工に至るまでの間に何度か変更が加えられることがある。図面管理システムでは、取得した画像データが、蓄積部に蓄積された図面データに関連するものである場合、上述のように図面データを作成する。この場合、書き込み情報についてテキスト情報を取得するが、今回取得した画像データと書き込み情報のテキスト情報が、既に作成した図面データにある場合でも、再度、同じ書き込み情報のテキスト情報を取得する。
なお、蓄積部に蓄積された図面データに関連するものである場合、建物を表す図面は、設計変更等により部分的に書き換えられたり、全く違うものに書き換えられることもある。
As described above, when a building is designed and completed, various drawings such as a site plan, layout plan, floor plan, and elevation plan are created. These drawings may be changed several times before the construction is completed. In the drawing management system, if the acquired image data is related to the drawing data stored in the storage unit, the drawing data is created as described above. In this case, text information is acquired for the written information, but even if the image data acquired this time and the text information of the written information are in the drawing data that has already been created, the text information of the same written information is acquired again.
In addition, in the case of drawings related to the drawing data stored in the storage unit, the drawing showing the building may be partially rewritten or completely rewritten due to design changes or the like.

以上までに、本発明の図面管理システムに関する一つ実施形態を説明したが、上記の実施形態は、本発明の理解を容易にするための一例に過ぎず、本発明を限定するものではない。すなわち、本発明は、その趣旨を逸脱することなく、変更、改良され得る。また、本発明には、その等価物が含まれることは勿論である。 So far, one embodiment of the drawing management system of the present invention has been described, but the above embodiment is merely an example to facilitate understanding of the present invention and does not limit the present invention. In other words, the present invention can be modified and improved without departing from its spirit. Furthermore, the present invention naturally includes its equivalents.

10 図面管理システム
12 処理ユニット
14 入力部
16 表示部
20 取得部
22 比較部
24 抽出部
26 識別部
28 データ作成部
30 蓄積部
32 メモリ
34 制御部
40 紙面
42 図面
44 書き込み情報
45、51 画像
50 画像データ
52、54 領域
54a 白紙領域
55 グリッド線
55a グリッド領域
56 第1の領域
56a 第1の書き込み情報
56b 第2の書き込み情報
57 第2の領域
58 第3の書き込み情報
58b、58c 端部
59a 第4の書き込み情報
59b 第5の書き込み情報
60 図面データ
60a 第1のエリア
60b 第2のエリア
62a 第1のテキスト情報
62b 第2のテキスト情報
62c 第1のテキスト情報
62d 第2のテキスト情報
63 日付情報
64a 第1のテキスト情報
64b 第2のテキスト情報
65a 第4のテキスト情報
67 領域
67a 第4のテキスト情報
68、69、71、72、73、74 テキスト情報
75 画像
LIST OF SYMBOLS 10 Drawing management system 12 Processing unit 14 Input section 16 Display section 20 Acquisition section 22 Comparison section 24 Extraction section 26 Identification section 28 Data creation section 30 Storage section 32 Memory 34 Control section 40 Paper surface 42 Drawing 44 Written information 45, 51 Image 50 Image data 52, 54 Area 54a Blank area 55 Grid line 55a Grid area 56 First area 56a First written information 56b Second written information 57 Second area 58 Third written information 58b, 58c End 59a Fourth written information 59b Fifth written information 60 Drawing data 60a First area 60b Second area 62a First text information 62b Second text information 62c First text information 62d Second text information 63 Date information 64a First text information 64b Second text information 65a Fourth text information 67 Area 67a Fourth text information 68, 69, 71, 72, 73, 74 Text information 75 Image

Claims (10)

紙面に記載された建物を表す図面と、前記紙面に記載された書き込み情報とを含む画像の画像データから前記書き込み情報を抽出する抽出部と、
前記画像データにおける前記書き込み情報から少なくともテキスト情報を取得する識別部と、
前記識別部で取得された前記書き込み情報の前記テキスト情報を前記画像データで表される画像に前記テキスト情報が表示されるように前記画像データに付加して図面データを作成するデータ作成部と、
前記図面データを蓄積する蓄積部とを有する、図面管理システム。
An extracting unit that extracts the written information from image data of an image including a drawing of a building written on a sheet of paper and the written information written on the sheet of paper;
an identification unit that acquires at least text information from the written information in the image data;
a data creation unit that creates drawing data by adding the text information of the writing information acquired by the identification unit to the image data so that the text information is displayed in an image represented by the image data;
A drawing management system having a storage unit that stores the drawing data.
前記紙面に記載された前記建物を表す前記図面と、前記紙面に記載された前記書き込み情報とを含む前記画像の前記画像データを取得する取得部を有する、請求項1に記載の図面管理システム。 The drawing management system according to claim 1, further comprising an acquisition unit that acquires the image data of the image including the drawing representing the building written on the paper and the written information written on the paper. 前記抽出部は、前記画像データが示す画像を複数の領域に分割し、前記領域毎に前記書き込み情報を抽出する、請求項1に記載の図面管理システム。 The drawing management system according to claim 1, wherein the extraction unit divides the image represented by the image data into a plurality of regions and extracts the written information for each of the regions. 前記データ作成部は、前記書き込み情報の前記テキスト情報を、前記画像データにおける前記書き込み情報が抽出された領域と対応する位置に表示されるように前記画像データに付加する、請求項1に記載の図面管理システム。 The drawing management system according to claim 1, wherein the data creation unit adds the text information of the written information to the image data so that the text information is displayed at a position in the image data corresponding to an area from which the written information is extracted. 前記データ作成部は、前記紙面に記載された前記書き込み情報が矢印又は指示線を含む場合、前記矢印又は前記指示線の先端の位置に基づいて設定された箇所に、前記書き込み情報に基づく前記テキスト情報が表示されるように前記画像データに付加する、請求項1に記載の図面管理システム。 The drawing management system of claim 1, wherein, when the written information written on the paper includes an arrow or a pointer line, the data creation unit adds the text information based on the written information to the image data so that the text information is displayed at a location set based on the position of the tip of the arrow or the pointer line. 前記抽出部で前記書き込み情報が複数抽出された場合、前記識別部は、それぞれの書き込み情報を分類する、請求項3に記載の図面管理システム。 The drawing management system of claim 3, wherein when the extraction unit extracts multiple pieces of written information, the identification unit classifies each piece of written information. 前記識別部による書き込み情報の分類は、前記紙面におけるそれぞれの前記書き込み情報の位置情報、又は前記書き込み情報における文字の向きが用いられる、請求項6に記載の図面管理システム。 The drawing management system according to claim 6, wherein the classification of the written information by the identification unit uses position information of each of the written information on the paper surface or the orientation of characters in the written information. 前記データ作成部は、前記画像データが示す画像のうち、前記紙面の前記建物を表す前記図面に相当する領域以外の領域を白紙領域に変更した後に、前記白紙領域に、前記書き込み情報に基づく前記テキスト情報が表示されるように、前記テキスト情報を前記画像データに付加する、請求項1に記載の図面管理システム。 The drawing management system of claim 1, wherein the data creation unit changes areas of the image represented by the image data other than the area corresponding to the drawing representing the building on the paper surface to blank areas, and then adds the text information to the image data so that the text information based on the written information is displayed in the blank areas. 前記データ作成部は、前記書き込み情報を記載したユーザのユーザ情報、及び前記書き込み情報を記載した日付情報のうち、少なくとも一方を前記画像データに付加する、請求項1に記載の図面管理システム。 The drawing management system according to claim 1, wherein the data creation unit adds at least one of the user information of the user who wrote the written information and the date information on which the written information was written to the image data. 前記紙面に記載された前記建物を表す前記図面と、前記紙面に記載された前記書き込み情報とを含む前記画像の前記画像データと、前記蓄積部に蓄積された前記図面データとを比較する比較部を有し、
前記蓄積部に蓄積された前記図面データのうち、前記画像データと関連する図面データがあると前記比較部が判定した場合、前記画像データにより得られた図面データを、前記関連する図面データに関連付けて、前記蓄積部に蓄積する、請求項1~9のいずれか1項に記載の図面管理システム。
a comparison unit that compares the image data of the image including the drawing representing the building written on the paper and the written information written on the paper with the drawing data stored in the storage unit,
A drawing management system as described in any one of claims 1 to 9, wherein when the comparison unit determines that there is drawing data related to the image data among the drawing data stored in the storage unit, the drawing data obtained from the image data is associated with the related drawing data and stored in the storage unit.
JP2022179502A 2022-11-09 2022-11-09 Drawing Management System Pending JP2024068871A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022179502A JP2024068871A (en) 2022-11-09 2022-11-09 Drawing Management System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022179502A JP2024068871A (en) 2022-11-09 2022-11-09 Drawing Management System

Publications (1)

Publication Number Publication Date
JP2024068871A true JP2024068871A (en) 2024-05-21

Family

ID=91094034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022179502A Pending JP2024068871A (en) 2022-11-09 2022-11-09 Drawing Management System

Country Status (1)

Country Link
JP (1) JP2024068871A (en)

Similar Documents

Publication Publication Date Title
US10572725B1 (en) Form image field extraction
US11232300B2 (en) System and method for automatic detection and verification of optical character recognition data
JP4347677B2 (en) Form OCR program, method and apparatus
US9613267B2 (en) Method and system of extracting label:value data from a document
US8015203B2 (en) Document recognizing apparatus and method
US20180143959A1 (en) Interactively predicting fields in a form
US11763588B2 (en) Computing system for extraction of textual elements from a document
JP6736012B2 (en) Information processing apparatus, information processing method, program, and form reading system
WO2008088938A1 (en) Converting text
KR19990036515A (en) Character recognition / modification method and device
EP3757881A1 (en) Documentation determination device and documentation determination program
JP4533273B2 (en) Image processing apparatus, image processing method, and program
JPWO2014068770A1 (en) Data extraction method, data extraction device and program thereof
WO2021140682A1 (en) Information processing device, information processing method, and information processing program
JP6529254B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM
KR102561878B1 (en) Ai blue ocr reading system and method based on machine learning
JP4785655B2 (en) Document processing apparatus and document processing method
US12475164B2 (en) Drawing search device, drawing database construction device, drawing search system, drawing search method, and recording medium
JP7591915B2 (en) Format definition device, format definition method, and program
JP6856916B1 (en) Information processing equipment, information processing methods and information processing programs
JP2024068871A (en) Drawing Management System
JP4518212B2 (en) Image processing apparatus and program
JP5134383B2 (en) OCR device, trail management device and trail management system
JP4517822B2 (en) Image processing apparatus and program
US20110135162A1 (en) Image processing apparatus, image processing method and recording medium