[go: up one dir, main page]

WO2018173126A1 - 監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラム - Google Patents

監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラム Download PDF

Info

Publication number
WO2018173126A1
WO2018173126A1 PCT/JP2017/011261 JP2017011261W WO2018173126A1 WO 2018173126 A1 WO2018173126 A1 WO 2018173126A1 JP 2017011261 W JP2017011261 W JP 2017011261W WO 2018173126 A1 WO2018173126 A1 WO 2018173126A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
image
monitoring screen
unit
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2017/011261
Other languages
English (en)
French (fr)
Inventor
新吾 袖長
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to CN201780088386.8A priority Critical patent/CN110431500B/zh
Priority to DE112017007292.1T priority patent/DE112017007292T5/de
Priority to PCT/JP2017/011261 priority patent/WO2018173126A1/ja
Priority to US16/493,463 priority patent/US11222226B2/en
Priority to JP2019506451A priority patent/JP6621962B2/ja
Publication of WO2018173126A1 publication Critical patent/WO2018173126A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Definitions

  • the present invention relates to a monitoring screen data generation device that generates monitoring screen data, a monitoring screen data generation method, and a monitoring screen data generation program.
  • a monitoring control system that monitors and controls a plurality of devices provided in a facility or facility displays a monitoring screen on which a plurality of image objects including symbols indicating devices to be monitored are arranged on a display device.
  • the symbols are visually changed based on the state of the monitoring target, and the state is changed to facilitate monitoring.
  • Patent Document 1 discloses a monitoring screen data generation device that generates monitoring screen data that is data of a monitoring screen.
  • a monitoring screen data generation device a monitoring that includes an image object from image data captured from outside is disclosed. Screen data is generated.
  • the present invention has been made in view of the above, and provides a monitoring screen data generation device capable of easily generating monitoring screen data in which data defining a state transition is assigned to an image object indicating a monitoring target device.
  • the purpose is to provide.
  • the monitoring screen data generation device of the present invention includes an image data acquisition unit, an object data generation unit, a screen data generation unit, and an allocation processing unit.
  • the image data acquisition unit acquires image data that is image data.
  • the object data generation unit identifies a plurality of objects included in the image of the image data acquired by the image data acquisition unit, and generates object data including information on the plurality of objects.
  • the screen data generation unit generates monitoring screen data that is monitoring screen data including an image object that is an image object among the plurality of objects, based on the object data generated by the object data generation unit.
  • the allocation processing unit allocates data defining the state transition to the image object included in the monitoring screen of the monitoring screen data based on the definition data defining the state transition and the object data.
  • FIG. 3 is a diagram illustrating an example of an image based on image data according to the first embodiment.
  • 4 is a diagram showing an example of image object data according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of an image based on image data according to the first embodiment.
  • 4 is a diagram showing an example of image object data according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of an image based on image data according to the first embodiment.
  • 4 is a diagram showing an example of image object data according to the first embodiment.
  • FIG. which shows an example of the character object data concerning Embodiment 1.
  • the figure which shows an example of the allocation data concerning Embodiment 1 3 is a flowchart illustrating an example of processing of a control unit according to the first embodiment.
  • the flowchart which shows the process of step S13 shown in FIG. 1 is a diagram illustrating an example of a hardware configuration of a monitoring screen data generation device according to a first embodiment;
  • FIG. The figure which shows an example of the expansion / contraction rate setting screen displayed on the display apparatus concerning Embodiment 2.
  • FIG. 10 is a flowchart illustrating an example of processing of a control unit according to the second embodiment.
  • FIG. 10 is a flowchart illustrating an example of processing of a control unit according to the third embodiment.
  • FIG. 10 is a flowchart illustrating an example of processing of a control unit according to the fourth embodiment.
  • FIG. 10 is a flowchart showing an example of processing of a control unit according to the fifth embodiment.
  • FIG. 1 is a diagram illustrating a configuration example of the monitoring screen data generation device according to the first embodiment of the present invention.
  • the monitoring screen data generation device 1 illustrated in FIG. 1 includes a communication unit 10, a control unit 20, and a storage unit 30.
  • the monitoring screen data generation apparatus 1 generates monitoring screen data that is monitoring screen data for monitoring a plurality of devices provided in a plant such as equipment or equipment.
  • the plant to be monitored is, for example, a water purification plant, a power plant, or a factory.
  • the monitoring screen data generation device 1 generates monitoring screen data that is monitoring screen data including a plurality of image objects.
  • the plurality of image objects constituting the monitoring screen include a symbol component representing a device to be monitored and a line component linking the devices to be monitored.
  • symbol parts may be referred to as symbols.
  • the monitoring screen data is information for generating a screen to be displayed on a display device (not shown) in order to monitor and control each device in a monitoring control system that monitors and controls a plurality of devices provided in the plant. It is. As will be described later, the monitoring screen data includes data defining state transitions assigned to the image objects in addition to the data of each object.
  • the state transition includes at least one of the behavior of the image object to the signal received from the monitoring target device and the behavior when the image object is operated. Further, the behavior includes at least one of a change in the state of the image object and a display of the device operation screen.
  • the change in the state of the image object includes at least one change in the color, shape, and pattern of the image object.
  • the change in the state of the image object includes a change in the numerical value displayed in the image object.
  • the device operation screen is a screen for operating a device that inputs or outputs a signal assigned to an image object.
  • the communication unit 10 transmits / receives information to / from other devices (not shown) via the network 2.
  • the network 2 is an intranet, but may be a network other than the intranet.
  • the control unit 20 generates monitoring screen data in which data defining a state transition is assigned to an image object based on image data acquired via the communication unit 10 and data stored in the storage unit 30.
  • the control unit 20 includes an image data acquisition unit 21, an object data generation unit 22, a screen data generation unit 23, an allocation processing unit 24, and a data output unit 25.
  • the storage unit 30 can store template data 31, object data 32, monitoring screen data 33, definition data 34, and assigned monitoring screen data 35.
  • FIG. 2 is a diagram illustrating an example of processing performed by the control unit 20.
  • processing performed by the control unit 20 illustrated in FIG. 1 will be described with reference to FIG.
  • FIG. 2 for convenience of explanation, only a part of the image of the image data 3 acquired by the image data acquisition unit 21 is displayed.
  • the image of the image data 3 is an image before the image data 3 is converted into a data, and is an image obtained by reproducing the image data 3.
  • the object data generation unit 22 identifies a plurality of objects 60a to 60d included in the image of the image data 3 acquired by the image data acquisition unit 21, and generates object data 32 including information on the plurality of objects 60a to 60d. .
  • the object 60a is a symbol part and an image object.
  • the object 60b is a character string and is a character object.
  • Objects 60c and 60d are line parts and are image objects. In the following, for convenience of explanation, the processing on the objects 60a and 60b will be mainly described. Further, the object 60a may be described as an image object 60a, and the object 60b may be described as a character object 60b.
  • the object data 32 includes image object data 41, character object data 42, and device data 43.
  • the image object data 41 includes information on the image object 60a.
  • the character object data 42 includes information on the character object 60b.
  • the object data generation unit 22 identifies the object name and coordinates of the image object 60a from the image data 3 by image recognition processing using the template data 31 stored in the storage unit 30, and generates the image object data 41. .
  • the object name “solenoid valve” and the coordinates “x1, y2” are included as information of the image object 60 a included in the image object data 41.
  • the object name of the image object 60a may be described as a symbol type.
  • the object data generation unit 22 identifies the character string and coordinates of the character object 60b from the image data 3 through character recognition processing, and generates character object data 42.
  • the character object 60 b included in the character object data 42 includes a character string “water pipe valve” and coordinates “x1, y1”.
  • the object data generation unit 22 generates device data 43 based on the image object data 41 and the character object data 42. Specifically, the object data generation unit 22 determines whether the distance between the coordinates of the image object 60a and the coordinates of the character object 60b is within the set range.
  • the object data generation unit 22 associates the object name and coordinates of the image object 60a with the character string of the character object 60b.
  • Device data 43 is generated.
  • the 2 includes the object type “solenoid valve”, the character string “water pipe valve”, and the coordinates “x1, y2”. Note that the coordinates included in the device data 43 are not the coordinates of the character object 60b but the coordinates of the image object 60a.
  • the screen data generation unit 23 generates monitoring screen data 33, which is monitoring screen data including a plurality of objects 61a to 61d, based on the character object data 42, the device data 43, and the definition data 34.
  • the definition data 34 includes an object name “solenoid valve” and component definition data (not shown) including a symbol image of the solenoid valve.
  • the screen data generation unit 23 extracts a symbol image of the solenoid valve from the part definition data, assigns the symbol image of the solenoid valve to the coordinates “x1, y2” included in the object data 32, and the character included in the character object data 42.
  • the monitoring screen data 33 is generated by assigning the column “water pipe valve” to the coordinates “x1, y1”.
  • the definition data 34 described above is stored in the storage unit 30 via an input device described later.
  • the control unit 20 may store the definition data 34 received by the communication unit 10 in the storage unit 30. it can.
  • the objects 61a, 61c, and 61d in the monitoring screen data 33 shown in FIG. 2 are image objects having the same object name and coordinate position as the objects 60a, 60c, and 60d, and the object 61b has a character string and a coordinate position that are the same as the object 60b. A matching character object.
  • the screen data generation unit 23 can also generate the monitoring screen data 33 using the image object data 41 instead of the device data 43.
  • the allocation processing unit 24 generates allocation data 36 that is data in which data defining state transition is allocated to the image object 60a included in the monitoring screen.
  • the allocation data 36 is data including an object name “solenoid valve” and a state transition “state transition 1”.
  • the state transition “state transition 1” indicates the behavior according to the state of the signal.
  • the allocation processing unit 24 generates allocated monitoring screen data 35 including allocation data 36 and monitoring screen data 33.
  • the data output unit 25 outputs the allocated monitoring screen data 35 including the image object 61a to which the information indicating the state transition is allocated by the allocation processing unit 24.
  • the assigned monitoring screen data 35 can also be displayed on a display device described later.
  • the monitoring screen data generation device 1 can automatically generate the allocated monitoring screen data 35 in which the data defining the state transition is assigned to the image object 61a indicating the monitoring target from the image data 3. . Therefore, compared to the case where the data defining the state transition is manually assigned to the image object, the assigned monitoring screen data 35 in which the data defining the state transition is assigned to the image object 61a can be easily generated.
  • FIG. 3 is a diagram illustrating a specific configuration example of the monitoring screen data generation device 1.
  • the control unit 20 of the monitoring screen data generation apparatus 1 shown in FIG. 3 includes, in addition to the image data acquisition unit 21, the object data generation unit 22, the screen data generation unit 23, the allocation processing unit 24, and the data output unit 25 described above.
  • the display control unit 26 and the input processing unit 27 are provided.
  • the image data acquisition unit 21 acquires the image data 3 input from the outside to the monitoring screen data generation device 1 via the network 2 from the communication unit 10.
  • the image data 3 is image data obtained by a screen shot of a computer screen or image data drawn by handwriting and imaged by an imaging means.
  • the image data 3 may be image data obtained by imaging a computer screen with an imaging unit.
  • the imaging means includes a scanner in addition to a camera.
  • FIG. 4 is a diagram illustrating an example of an image of the image data 3.
  • the image of the image data 3 shown in FIG. 4 includes image objects 70a to 70f that are symbol parts, image objects 71a to 71e that are line parts, and character objects 72a to 72f that are character strings.
  • the image objects 70a to 70f may be referred to as the image object 70
  • the image objects 71a to 71e may be referred to as the image object 71
  • the character objects 72a to 72f may be referred to as the character object 72.
  • the object data generation unit 22 shown in FIG. 3 includes a template matching processing unit 51, a character identification processing unit 52, and a device data generation unit 53.
  • the template matching processing unit 51 is an example of a first identification unit
  • the character identification processing unit 52 is an example of a second identification unit.
  • the template matching processing unit 51 identifies the image objects 70 and 71 included in the image data 3 based on the template data 31 stored in the storage unit 30.
  • the template data 31 includes information in which the reference image of the symbol part and the symbol type are associated with each symbol type, and information in which the reference image of the line part and the line type are associated with each line type.
  • the template matching processing unit 51 determines the symbol type, coordinates, and size of each image object 70 by comparing each image object 70 with the reference image of the symbol part. Further, the template matching processing unit 51 determines the line name, coordinates, and size of each image object 71 by comparing each image object 71 with the reference image of the line part.
  • the template matching processing unit 51 generates image object data 41 including the names, coordinates, and sizes of the image objects 70 a to 70 f and 71 a to 71 e and stores them in the storage unit 30.
  • FIG. 5 is a diagram illustrating an example of the image object data 41.
  • the image object data 41 includes data in which the type, coordinates, and size of each image object 70 are associated with each other.
  • the symbol type indicates the type of the image object 70 that is a symbol part
  • the coordinates indicate the center coordinates or the end coordinates of the image object 70
  • the size indicates the horizontal ⁇ vertical size of the image object 70. Note that in the example shown in FIG. 5, numbers are assigned to the symbol types so that the types of the image objects 70 can be distinguished even if they are the same type of image object.
  • the image object data 41 includes data associated with the symbol type “solenoid valve 1”, coordinates “50, 25”, and size “10 ⁇ 10” as data of the image object 70a.
  • the data of the image object 70b includes data associated with the symbol type “solenoid valve 2”, coordinates “240, 25”, and size “10 ⁇ 10”.
  • the image object data 41 includes data of the image objects 70c to 70f similarly to the data of the image objects 70a and 70b.
  • the image object data 41 includes data indicating the line name, coordinates, and size of each image object 71.
  • the coordinates are the coordinates of the start point, end point, and branch point of the image object 71, and the size is the line width of the image object 71.
  • the character identification processing unit 52 of the object data generation unit 22 identifies character strings, coordinates, and sizes of the character objects 72a to 72f included in the image of the image data 3 through character recognition processing, and generates character object data 42. .
  • FIG. 6 is a diagram illustrating an example of the character object data 42.
  • each character object 72 includes data in which the character string, coordinates, and size of each character object 72 are associated with each other.
  • the coordinates indicate the coordinates or center coordinates of the first character of the character object 72, and the size is the font size of the character object 72.
  • the character object data 42 includes data in which the character string “first water purification plant”, the coordinates “5, 5”, and the size “18” are associated as the data of the character object 72 a.
  • the data of the character object 72b includes data in which the character string “first water pipe valve”, the coordinates “50, 15”, and the size “12” are associated.
  • the character object data 42 includes data of the character objects 72c to 72f, similarly to the data of the character objects 72a and 72b.
  • the device data generation unit 53 of the object data generation unit 22 generates device data 43 based on the image object data 41 and the character object data 42.
  • the device data generation unit 53 compares the coordinates of the image object 70 and the coordinates of the character object 72, and sets the distance between the coordinates of the image object 70 and the character object 72 to each other. Judge as related object. Then, device data 43 in which the symbol type, coordinates, and size of the image object 70 are associated with the character string of the character object 72 related to the image object 70 is generated.
  • the setting range described above may be varied depending on the positional relationship between the coordinates of the image object 70 and the coordinates of the character object 72.
  • the distance setting range yth in the case where the coordinates of the image object 70 and the coordinates of the character object 72 are vertically related to each other, and the coordinates of the image object 70 and the coordinates of the character object 72 are horizontally related to the coordinates. It may be larger than the distance setting range xth. Thereby, it is possible to preferentially associate a character object that has a vertical relationship with the image object on the coordinates.
  • the device data generation unit 53 can preferentially associate the character object having the upper limit relationship on the coordinates with the image object.
  • the device data generation unit 53 assigns different weights to the vertical distance y and the horizontal distance x between the image object and the character object to obtain the distance d between the image object and the character object,
  • the character object having the smallest distance d can be associated with the image object.
  • the device data generation unit 53 associates, with the image object, a character object having a minimum distance d derived from the following equation (1) among a plurality of character objects existing within the set range from the coordinates of the image object. it can.
  • the device data generation unit 53 can also associate a plurality of character objects with the image object when there are a plurality of character objects within the set range from the coordinates of the image object.
  • FIG. 7 is a diagram illustrating an example of the device data 43. As illustrated in FIG. 7, the device data 43 includes data in which symbol types, device names, coordinates, and sizes are associated with each other.
  • the symbol type “solenoid valve 1” is associated with the device name “first water pipe valve”, the coordinates “50, 25”, and the size “10 ⁇ 10”.
  • the symbol type “solenoid valve 2” is associated with the device name “second water pipe valve”, coordinates “240, 25”, and size “10 ⁇ 10”.
  • the device type, coordinates, and size are also associated with the symbol types “right-hand pump 1”, “numerical button 1”, “right-hand pump 2”, and “numerical button 2”.
  • the object data generation unit 22 stores the object data 32 including the image object data 41, the character object data 42, and the device data 43 generated as described above in the storage unit 30.
  • the screen data generation unit 23 of the control unit 20 generates monitoring screen data 33 based on the character object data 42, the device data 43, and the component definition data 44.
  • the component definition data 44 is data included in the definition data 34 and is data in which a symbol type and a symbol image are associated with each other.
  • FIG. 8 is a diagram illustrating an example of the part definition data 44. As shown in FIG. 8, the symbol type “solenoid valve” is associated with the symbol image of the solenoid valve, and the symbol type “right port pump” is associated with the symbol image of the right port pump.
  • FIG. 9 is a diagram showing an example of the screen of the monitoring screen data 33. As shown in FIG. The example shown in FIG. 9 includes image objects 80a to 80f that are symbol parts, image objects 81a to 81e that are line parts, and character objects 82a to 82f that are character strings.
  • the screen data generation unit 23 assigns the image objects 80a to 80f shown in FIG. 9 to the monitoring screen based on the symbol type, coordinates, and size of the image objects 70a to 70f included in the image object data 41.
  • the screen data generation unit 23 extracts a symbol image associated with the symbol type of the image object 70 a from the component definition data 44.
  • the screen data generation unit 23 assigns the extracted symbol image as the image object 80a to the coordinate position of the image object 70a with the size of the image object 70a.
  • the screen data generation unit 23 assigns the image of the symbol type “solenoid valve” as the image object 80a at the position of the coordinates “50, 25” with the size “10 ⁇ 10”.
  • the screen data generation unit 23 performs the same processing as the image object 80a for the image objects 80b to 80f.
  • the screen data generation unit 23 assigns the image objects 81a to 81e shown in FIG. 9 to the monitoring screen based on the line types, coordinates, and sizes of the image objects 71a to 71e included in the image object data 41.
  • the screen data generation unit 23 extracts a line image associated with the line type of the image object 81 a from the component definition data 44.
  • the screen data generation unit 23 assigns the extracted line image as the image object 81a to the coordinate position of the image object 71a with the size of the image object 71a.
  • the screen data generation unit 23 performs the same processing as the image object 81a for the image objects 81b to 81e.
  • the screen data generation unit 23 assigns the character objects 82a to 82f shown in FIG. 9 to the monitoring screen based on the character strings, coordinates, and sizes of the character objects 72a to 72f included in the character object data 42.
  • the screen data generation unit 23 assigns the character string of the character object 72a as the character object 82a at the coordinate position of the character object 72a with the size of the character object 72a. That is, the screen data generation unit 23 allocates the character string “first water purification plant” as the character object 82a at the position of the size “18” and the coordinates “5, 5”. The screen data generation unit 23 performs the same processing as the character object 82a for the character objects 82b to 82f.
  • the monitoring screen data 33 generated by the screen data generating unit 23 includes images, object names, and coordinates of the image objects 80a to 80f and 81a to 81e, and includes character strings and coordinates of the character objects 82a to 82f. .
  • the monitoring screen data 33 is not limited to the above-described example as long as the image objects 80a to 80f and 81a to 81e can be displayed so that the state can be changed.
  • the allocation processing unit 24 of the control unit 20 uses the allocated monitoring screen data 35 in which the data defining the state transition is allocated to the image objects 80a to 80f included in the monitoring screen.
  • the item definition data 45 is data included in the definition data 34 and is data that defines a state transition.
  • FIG. 10 is a diagram illustrating an example of the item definition data 45.
  • the item definition data 45 is data defining state transition, and is data associated with a device name, behavior, signal name, and signal code, as shown in FIG. In the example illustrated in FIG. 10, numbers are assigned to the state transitions so that the state transitions can be distinguished from each other.
  • Device name is the name of the device to be monitored provided in the plant.
  • Behavior is information indicating the behavior of the symbol that is the image object 80.
  • the “behavior” is, for example, information indicating how the image object 80 is changed depending on the signal state, and information for displaying the operation screen of the monitoring target device based on the operation on the image object 80.
  • “Signal name” is the name of the signal received from the monitored device, “On” means a signal indicating whether the device is operating or stopped, and “Failure” is the occurrence of a failure.
  • the “flow rate” means the amount of water flowing by the pump.
  • the “signal code” is an identification code of a device signal included in a monitoring control system that monitors and controls the plant, and the device signal is, for example, an instrumentation signal, a control signal, or a sensor signal.
  • the device name “first water pipe valve” is associated with the behavior “behavior 1”, the signal name “on”, and the signal code “D11”.
  • “Behavior 1” is information in which the state of the signal is associated with at least one change mode of the color, shape, and pattern of the image object 80. Therefore, the aspect of the image object 80 changes based on the signal state of the signal code “D11”.
  • the device name “first water pipe valve” in the item definition data 45 is associated with behavior “behavior 2”, signal name “failure”, and signal code “D12”.
  • “Behavior 2” is information in which the state of the signal is associated with at least one change mode of the color, shape, and pattern of the image object 80. Therefore, the aspect of the image object 80 changes based on the signal state of the signal code “D12”.
  • the device names “second water pipe valve”, “first water pump”, and “second water pump” in the item definition data 45 are the same as those in the case of the device name “first water pipe valve”.
  • the behavior “behavior 6”, the signal name “flow rate”, and the signal code “D16” are associated with the device name “first water pump”.
  • “Behavior 6” is information indicating that a signal state is displayed. Accordingly, the flow rate that is the signal state of the signal code “D16” is displayed on the image object 80.
  • the allocation processing unit 24 generates allocation data 36 based on the item definition data 45 and the object data 32. Specifically, the assignment processing unit 24 compares the device name included in the item definition data 45 with the device name included in the device data 43. Then, the assignment processing unit 24 generates assignment data 36 by associating the behavior and signal included in the item definition data 45 including the device name that matches the device name included in the device data 43 with the symbol type included in the device data 43. To do.
  • FIG. 11 is a diagram illustrating an example of the allocation data 36.
  • the allocation data 36 is data in which a symbol type, a behavior, and a signal code are associated with each other.
  • the behavior “behavior 1” and the signal code “D11” are associated with the image object 80a that is the symbol of the symbol type “solenoid valve 1”.
  • the behavior “behavior 2” and the signal code “D12” are associated with the image object 80a which is the symbol of the symbol type “solenoid valve 1”. Similar behavior and signal codes are assigned to the symbols which are the image objects 80b to 80f.
  • the allocation data 36 is not limited to the example shown in FIG. 11 as long as it can allocate behaviors and signals to the image objects 80a to 80f that are symbols.
  • the behavior and signal code may be assigned to the identifiers of the image objects 80a to 80f.
  • the allocation data 36 may include information indicating the coordinates of the image objects 80a to 80f instead of the identifiers or symbol types of the image objects 80a to 80f. That is, the allocation data 36 may be data in which a signal code is allocated to the information that can identify the image objects 80a to 80f.
  • the behavior and signals can be assigned to the image objects 80a to 80f in the assigned monitoring screen data 35, and the behavior and signals are assigned to the image objects 80a to 80f by the assignment data other than the assignment data 36 described above. Also good. That is, as a result, in the monitoring control system that monitors and controls the plant, the assigned monitoring is performed so that the behavior and the signal are assigned to the image object 80 indicating the monitored device, and the behavior is executed depending on the state of the signal. It is only necessary that the screen data 35 is generated.
  • the display control unit 26 of the control unit 20 can display the data stored in the storage unit 30 on the display device 4. Specifically, the display control unit 26 can selectively display at least one of the object data 32, the monitoring screen data 33, the definition data 34, and the assigned monitoring screen data 35 on the display device 4.
  • the input processing unit 27 of the control unit 20 can change at least one of the object data 32, the monitoring screen data 33, the definition data 34, and the assigned monitoring screen data 35 based on the input to the input device 5. .
  • FIG. 12 is a flowchart illustrating an example of processing of the control unit 20 according to the first embodiment.
  • step S10 the image data acquisition unit 21 of the control unit 20 acquires the image data 3 from the outside (step S10).
  • the object data generation unit 22 of the control unit 20 extracts a plurality of objects included in the image of the image data 3, and generates object data 32 (step S11).
  • the process of step S11 is a process of steps S20 to S31 in FIG. 13 described later, and will be described in detail later.
  • step S13 the screen data generation unit 23 of the control unit 20 generates monitoring screen data 33, which is monitoring screen data, based on the object data 32 and the part definition data 44 generated in step S11 (step S12).
  • the control unit 20 generates assigned monitoring screen data 35 including the assigned data 36 and the monitoring screen data 33 (step S13).
  • the process of step S13 is the process of steps S40 to S44 shown in FIG. 14, and will be described in detail later.
  • FIG. 13 is a flowchart showing the process of step S11 shown in FIG.
  • the object data generation unit 22 reads the template data 31 from the storage unit 30 (step S20).
  • the object data generation unit 22 performs identification processing of the image object included in the image data 3 using the template data 31 (step S21).
  • the object data generation unit 22 determines whether or not the identified image object is a symbol part (step S22). If it is determined that the image object is a symbol part (step S22: Yes), it generates symbol part data. (Step S23). When it is determined that the image object is not a symbol part (step S22: No), the object data generation unit 22 generates line part data (step S24).
  • the object data generation unit 22 determines whether or not the identification process for all the image objects included in the image data 3 has been completed when the process of step S23 or step S24 is completed (step S25). If the object data generation unit 22 determines that the identification processing for all the image objects has not been completed (step S25: No), the process proceeds to step S21.
  • step S25 If the object data generation unit 22 determines that the identification processing for all the image objects has been completed (step S25: Yes), the image includes the symbol part data generated in step S23 and the line part data generated in step S24. Object data 41 is generated (step S26).
  • the object data generation unit 22 performs identification processing of the character object included in the image data 3 (step S27), and generates data of the identified character object (step S28). The object data generation unit 22 determines whether or not the identification processing for all the character objects included in the image data 3 has been completed (step S29).
  • step S29: No If the object data generating unit 22 determines that the identification processing for all the character objects has not been completed (step S29: No), the process proceeds to step S27. If it is determined that the identification processing for all the character objects has been completed (step S29: Yes), the object data generation unit 22 generates character object data 42 including data for all the character objects generated in step S28 (step S29). S30).
  • the object data generation unit 22 generates device data 43 based on the image object data 41 generated in step S26 and the character object data 42 generated in step S30 (step S31), and the processing shown in FIG. Exit.
  • FIG. 14 is a flowchart showing the process of step S13 shown in FIG. As shown in FIG. 14, the allocation processing unit 24 of the control unit 20 determines whether or not the device data 43 is generated in step S11 (step S40).
  • step S40 If the allocation processing unit 24 determines that the device data 43 has been generated (step S40: Yes), it reads the item definition data 45 from the storage unit 30 (step S41). Then, the allocation processing unit 24 performs generation processing of the allocation data 36 based on the item definition data 45 and the object data 32 (Step S42).
  • the allocation processing unit 24 determines whether the allocation data 36 has been generated (step S43).
  • the assignment data 36 is generated when the character string of at least one “device name” included in the item definition data 45 matches the character string of the device name included in the device data 43. On the other hand, if any of the “device name” character strings included in the item definition data 45 does not match the character string of the device name included in the device data 43, the allocation data 36 is not generated.
  • the allocation processing unit 24 determines that the allocation data 36 has been generated (step S43: Yes)
  • the allocation processing unit 24 generates allocated monitoring screen data 35 including the allocation data 36 and the monitoring screen data 33 (step S44).
  • step S40 If it is determined in step S40 that device data has not been generated (step S40: No), if it is determined in step S43 that allocation data 36 has not been generated (step S43: No), or step S44.
  • the control unit 20 finishes the process shown in FIG.
  • FIG. 15 is a diagram illustrating an example of a hardware configuration of the monitoring screen data generation device 1 according to the first embodiment.
  • the monitoring screen data generation device 1 is a computer that includes a processor 101, a memory 102, an HDD 103, and an interface circuit 104.
  • the processor 101, the memory 102, the HDD 103, and the interface circuit 104 can transmit / receive data to / from each other via the bus 105.
  • the communication unit 10 is realized by the interface circuit 104.
  • the storage unit 30 is realized by the memory 102 and the HDD 103.
  • the processor 101 reads out and executes the OS and the processing program stored in the HDD 103 to thereby execute an image data acquisition unit 21, an object data generation unit 22, a screen data generation unit 23, an allocation processing unit 24, a data output unit 25, a display
  • the functions of the control unit 26 and the input processing unit 27 are executed.
  • the processor 101 receives an OS and a processing program from one or more storage media among a magnetic disk, a USB (Universal Serial Bus) memory, an optical disk, a compact disk, and a DVD (Digital Versatile Disc) via an interface (not shown). It can also be stored in the read HDD 103 and executed.
  • USB Universal Serial Bus
  • the processor 101 is an example of a processing circuit, and includes one or more of a CPU, a DSP (Digital Signal Processor), and a system LSI (Large Scale Integration).
  • the memory 102 is a storage area used as a work area of the processor 101, and is a nonvolatile or volatile semiconductor memory represented by a RAM (Random Access Memory).
  • the monitoring screen data generation device 1 includes the image data acquisition unit 21, the object data generation unit 22, the screen data generation unit 23, and the allocation processing unit 24.
  • the image data acquisition unit 21 acquires image data 3 that is image data.
  • the object data generation unit 22 identifies a plurality of objects 70, 71, 72 included in the image of the image data 3 acquired by the image data acquisition unit 21, and includes information on the identified plurality of objects 70, 71, 72.
  • Object data 32 is generated.
  • the screen data generation unit 23 generates monitoring screen data 33 that is monitoring screen data including the image objects 70 and 71 and the character object 73 based on the object data 32 generated by the object data generation unit 22.
  • the allocation processing unit 24 is based on the definition data 34 that defines the state transition and the object data 32, and the allocation data 36 that is an example of data that defines the state transition in the image object 70 included in the monitoring screen of the monitoring screen data 33. Is assigned.
  • the allocated monitoring screen data 35 in which the allocation data 36 is allocated to the image object 61a can be easily generated. Further, since the monitoring screen data 33 can be generated from the image data obtained by the screen shot or the image data captured by the scanner, the monitoring screen data 33 can be generated based on the monitoring screen image data of another company having no data compatibility.
  • the object data generation unit 22 includes a template matching processing unit 51 that is an example of a first identification unit, a character identification processing unit 52 that is an example of a second identification unit, and a device data generation unit 53.
  • the template matching processing unit 51 identifies the image objects 70 and 71 among the plurality of objects 70, 71 and 72, and generates image object data 41 including the coordinates of the identified image objects 70 and 71.
  • the character identification processing unit 52 identifies a character object 72 that is a character object among the plurality of objects 70, 71, 72, and generates character object data 42 including the coordinates of the identified character object 72.
  • the device data generation unit 53 generates device data 43 in which the image object 70 and the character object 72 are associated with each other based on the coordinates of the image object 70 and the coordinates of the character object 72.
  • the allocation processing unit 24 is allocation data that is data defining state transitions in the image object 70 included in the monitoring screen based on the comparison result between the device name included in the definition data 34 and the character object 72 included in the device data 43. Assign 36. As described above, by generating the device data 43 in which the image object 70 and the character object 72 are associated with each other, the data defining the state transition can be easily assigned to the image object 70.
  • FIG. The second embodiment is different from the first embodiment in that an enlargement / reduction process for adding an object to the monitoring screen data 33 with a size different from that of the image object of the image data 3 is added.
  • components having the same functions as those in the first embodiment are denoted by the same reference numerals, description thereof is omitted, and differences from the monitoring screen data generation device 1 in the first embodiment are mainly described.
  • FIG. 16 is a diagram of a configuration example of the monitoring screen data generation device 1A according to the second embodiment.
  • control unit 20A of the monitoring screen data generation device 1A further includes an enlargement / reduction processing unit 28 in addition to the configuration of the control unit 20.
  • the storage unit 30A of the monitoring screen data generation device 1A can store the modified object data 37 in addition to the data stored in the storage unit 30.
  • the enlargement / reduction processing unit 28 reads out the object data 32 from the storage unit 30, generates enlargement / reduction rate setting screen data based on the object data 32, and outputs it to the display control unit 26.
  • the display control unit 26 displays an enlargement / reduction ratio setting screen on the display device 4 based on the enlargement / reduction ratio setting screen data.
  • FIG. 17 is a diagram showing an example of the enlargement / reduction ratio setting screen 62 displayed on the display device 4.
  • input frames 63a to 63f are arranged for each symbol part which is an image object
  • input frames 64a to 64e are arranged for each line part which is an image object, which is a character object.
  • Input frames 65a to 65f are arranged for each character string.
  • the magnifications set in the input frames 63a to 63f, 64a to 64e, and 65a to 65f are the scaling ratios of the objects included in the image of the image data 3.
  • the magnification set in each of the input frames 63a to 63f, 64a to 64e, and 65a to 65f can be changed by operating the input device 5.
  • the enlargement / reduction processing unit 28 selects an input from among the magnifications of the input frames 63a to 63f, 64a to 64e, and 65a to 65f.
  • the corrected object data 37 obtained by multiplying the magnification changed by the operation on the device 5 by the size of the object of the object data 32 is generated.
  • the enlargement / reduction processing unit 28 stores the generated corrected object data 37 in the storage unit 30A.
  • the enlargement / reduction processing unit 28 sets the magnification of the input frame 63a to “80%”.
  • the size of the image object 80a is set to “8 ⁇ 8”.
  • the enlargement / reduction processing unit 28 deletes the modified object data 37 stored in the storage unit 30A.
  • an input frame 66 for setting the magnifications of all objects at once is arranged.
  • the magnification set in the input frame 66 can be changed by operating the input device 5 in the same manner as the magnification set in the input frames 63a to 63f, 64a to 64e, and 65a to 65f.
  • the enlargement / reduction processing unit 28 sets the magnification set in the input frame 66 for all objects included in the object data 32.
  • the corrected object data 37 obtained by multiplying is generated.
  • the enlargement / reduction processing unit 28 stores the generated corrected object data 37 in the storage unit 30A.
  • FIG. 18 is a flowchart of an example of processing of the control unit 20A according to the second embodiment.
  • the image data acquisition unit 21 of the control unit 20A acquires the image data 3 from the outside (step S50).
  • the object data generation unit 22 of the control unit 20A extracts a plurality of objects included in the image of the image data 3, and generates object data 32 (step S51).
  • the process of step S51 is the process of steps S20 to S30 in FIG. 13 described above, and the process of step S31 in FIG. 13 is performed by the process of step S56 described later.
  • the enlargement / reduction processing unit 28 of the control unit 20A generates enlargement / reduction rate setting screen data based on the object data 32, and the display control unit 26 displays the enlargement / reduction rate setting screen 62 based on the enlargement / reduction rate setting screen data.
  • the information is displayed on the display device 4 (step S52).
  • the enlargement / reduction processing unit 28 determines whether there is a request for enlargement / reduction setting (step S53).
  • the enlargement / reduction processing unit 28 determines that there is a request for enlargement / reduction setting when the setting button 67 described above is operated.
  • the enlargement / reduction processing unit 28 determines that there is a request for enlargement / reduction setting (step S53: Yes)
  • the correction obtained by multiplying the object size of the object data 32 by the magnification set in the input frame of the enlargement / reduction ratio setting screen 62 Object data 37 is generated (step S54).
  • the screen data generation unit 23 of the control unit 20A generates monitoring screen data 33, which is monitoring screen data, based on the modified object data 37 and the part definition data 44 generated in step S54 (step S55).
  • 20 A of control parts produce
  • the control unit 20A can also perform the process of step S55 before the process of step S56.
  • the assignment processing unit 24 can change the type and number of behaviors assigned to the image object according to the size of the image object.
  • the item definition data 45 is data in which device names, behaviors, signal names, and signal codes are associated with each size type.
  • the size type indicates a plurality of size ranges.
  • the size range is, for example, a range of “6 ⁇ 6” or more and less than “8 ⁇ 8”. In this way, by changing the type and number of behaviors assigned to each size of the image object, it is possible to assign a behavior that is easy to see even if the size becomes small and it becomes difficult to see the behavior of the image object. it can.
  • the enlargement / reduction processing unit 28 generates the modified object data 37 before the screen data generation unit 23 generates the monitoring screen data 33, but the screen data generation unit 23 generates the monitoring screen data 33. After that, the modified object data 37 can be generated. In this case, the enlargement / reduction processing unit 28 can generate the modified object data 37 by changing the enlargement / reduction of the object based on the operation of the monitoring screen data 33 generated based on the object data 32.
  • the hardware configuration example of the monitoring screen data generation device 1A according to the second embodiment is the same as that of the monitoring screen data generation device 1 shown in FIG.
  • the processor 101 can execute the function of the enlargement / reduction processing unit 28 in addition to the function of the control unit 20 described above by reading and executing the program stored in the memory 102 functioning as the storage unit 30A.
  • the monitoring screen data generation device 1A includes the enlargement / reduction processing unit 28 which is an example of a size changing unit.
  • the enlargement / reduction processing unit 28 changes the size of a part or all of the objects 70a to 70f, 71a to 71e, 72a to 72f (see FIG. 4) included in the object data 32.
  • the screen data generation unit 23 generates monitoring screen data 33 based on the modified object data 37 including the data of the objects 70a to 70f, 71a to 71e, and 72a to 72f whose sizes have been changed by the enlargement / reduction processing unit 28.
  • a single monitoring screen can be generated by combining object data obtained from a plurality of image data 3 so that the objects 70a to 70f, 71a to 71e, and 72a to 72f do not overlap. Therefore, it is possible to generate the monitoring screen data 33 with higher flexibility and higher visibility.
  • Embodiment 3 the assignment data 36 is created based on the item definition data 45. However, in the third embodiment, the assignment data is created based on the item template data. Different. In the following, components having the same functions as those in the first embodiment will be denoted by the same reference numerals and description thereof will be omitted. It can also be applied to the monitoring screen data generation apparatus 1A of the second embodiment.
  • FIG. 19 is a diagram illustrating a configuration example of the monitoring screen data generation device 1B according to the third embodiment.
  • the control unit 20B of the monitoring screen data generation device 1B according to the third embodiment includes an allocation processing unit 24B instead of the allocation processing unit 24.
  • the storage unit 30B of the monitoring screen data generation device 1B further stores item template data 38 and signal definition data 46.
  • Item template data 38 is data in which a symbol type, a signal name, and a behavior are associated with each other.
  • FIG. 20 is a diagram illustrating an example of the item template data 38.
  • the signal name “ON” and “behavior 1” are associated with the symbol type “electromagnetic valve”
  • the signal name “failure” is associated with the symbol type “electromagnetic valve”.
  • Behavior 2 are associated with each other.
  • the signal names “ON” and “Behavior 3” are associated with the symbol type “Pump”
  • the signal names “Fault” and “Behavior 4” are associated with the symbol type “Pump”. ".
  • the signal name “ON” indicates a signal indicating whether the device is operating or stopped, and “behavior 1” and “behavior 3” associated with the signal name “ON” correspond to the state of the signal. Data indicating the behavior of the symbol.
  • the signal name “failure” indicates a signal indicating a failure of the device, and “behavior 2” and “behavior 4” associated with the signal name “failure” indicate the behavior of the symbol when the device fails. It is data.
  • the signal definition data 46 is data in which a device name, a signal name, and a signal code are associated with each other.
  • the signal definition data 46 is stored in the storage unit 30B via the input device 5.
  • the control unit 20B stores the signal definition data 46 received by the communication unit 10 in the storage unit 30B. be able to.
  • FIG. 21 is a diagram illustrating an example of the signal definition data 46.
  • the signal name “ON” and the signal code “D11” are associated with the device name “first water pipe valve”, and the device name “first water pipe valve” is associated with it.
  • the signal name “failure” and the signal code “D12” are associated with each other.
  • signal names and signal codes are associated with the device names “second water pipe valve”, “first water pump”, and “second water pump”.
  • the allocation processing unit 24B generates allocation data 36B, which is data defining state transitions for image objects included in the monitoring screen, based on the item template data 38, the signal definition data 46, and the object data 32. Specifically, the allocation processing unit 24B generates temporary allocation data in which a signal name and a signal code are set for each device name included in the device data 43 based on the device data 43 and the signal definition data 46. Generate.
  • the assignment processing unit 24B compares the symbol type included in the signal definition data 46 with the symbol type included in the device data 43. Then, the assignment processing unit 24 ⁇ / b> B determines the device name associated with the symbol type that matches the symbol type of the signal definition data 46 in the device data 43. For example, the symbol type “electromagnetic valve” included in the signal definition data 46 shown in FIG. 20 matches the symbol types “electromagnetic valve 1” and “electromagnetic valve 2” included in the device data 43 shown in FIG. The symbol types “solenoid valve 1” and “solenoid valve 2” are associated with the device names “first water supply valve pipe” and “second water supply valve pipe”.
  • the allocation processing unit 24B extracts the signal name and signal code associated with the symbol type that matches the device name from the signal definition data 46 for the device name determined to match the symbol type, and extracts the extracted signal name and signal.
  • Temporary allocation data is generated by associating the code with the device name.
  • the temporary allocation data includes, for example, data in which the signal name “ON” and the signal code “D11” are associated with the “first water pipe valve”, and the signal name “failure” and the signal code are associated with the “first water pipe valve”. It includes data associated with “D12”.
  • the allocation processing unit 24B sets the behavior corresponding to the combination of the device name and the signal type included in the temporary allocation data to the temporary allocation data based on the item template data 38, and generates the allocation data 36B.
  • FIG. 22 is a diagram illustrating an example of the allocation data 36B.
  • the behavior “behavior 1” is set to the signal name “ON”.
  • the behavior “behavior 2” is set to the signal name “failure”.
  • the behavior “behavior 3” is set for the signal name “ON”
  • the behavior “behavior” is set for the signal name “failure”. 4 "is set.
  • the item template data 38 described above is data in which the symbol name, the signal name, and the behavior are associated with each other, but may be data in which the symbol name is not associated.
  • FIG. 23 is a diagram illustrating another example of the item template data 38.
  • the behavior “behavior 1” is set for the signal name “on”, and the behavior “behavior 2” is set for the signal name “failure”.
  • the assignment processing unit 24B assigns the behavior only by the signal name regardless of the symbol name. Therefore, in the allocation data 36B, in the “first water pump” and the “second water pump”, the behavior “behavior 1” is set to the signal name “ON”, and the behavior “behavior” is set to the signal name “failure”. 2 "is set. In the item template data 38 shown in FIG. 23, the behavior “behavior 2” does not have to be set for the signal name “failure”, and the behavior “behavior 3” is set for the signal name “flow rate”. Also good.
  • FIG. 24 is a flowchart illustrating an example of a process of the control unit 20B according to the third embodiment, which is a process corresponding to step S13 illustrated in FIG.
  • the allocation processing unit 24B of the control unit 20B determines whether or not the device data 43 has been generated, similarly to the processing of step S40 (step S60). If the allocation processing unit 24B determines that the device data 43 has been generated (step S60: Yes), it reads the item template data 38 and the signal definition data 46 from the storage unit 30B (steps S61 and S62).
  • the allocation processing unit 24B performs generation processing of the allocation data 36B based on the item template data 38, the signal definition data 46, and the object data 32 (step S63).
  • the allocation processing unit 24B generates allocated monitoring screen data 35 including the allocation data 36B and the monitoring screen data 33 (step S64).
  • the hardware configuration example of the monitoring screen data generation device 1B according to the third embodiment is the same as that of the monitoring screen data generation device 1 shown in FIG.
  • the processor 101 can execute the function of the allocation processing unit 24B instead of the allocation processing unit 24 by reading and executing a program stored in the memory 102 functioning as the storage unit 30B.
  • the object data generation unit 22 of the monitoring screen data generation device 1B identifies the image object 70 and generates the image object data 41 including the type of the identified image object 70.
  • the allocation processing unit 24B performs state transition on the image object 70 included in the monitoring screen based on the comparison result between the type of the image object 70 included in the signal definition data 46 and the type of the image object 70 included in the image object data 41.
  • Allocation data 36B which is data to be defined, is allocated.
  • the item template data 38 that is simpler than the item definition data 45 is used for the image object 70 included in the monitoring screen.
  • Data defining state transitions can be assigned. Therefore, the trouble of recreating the definition of the behavior of the image object for each monitoring screen can be saved, and the assigned monitoring screen data 35 can be easily generated. Further, when the item template data 38 shown in FIG. 23 is used, the behavior can be assigned only by the signal name regardless of the symbol name, and the assigned monitoring screen data 35 can be generated more easily.
  • the assignment processing unit 24B can also assign a behavior and a signal code using the item template data 38 to an image object to which a behavior and a signal code cannot be assigned based on the item definition data 45. Thereby, even when the item definition data 45 is missing, the state transition data can be assigned to the image object.
  • the monitoring screen data 33 is generated without selecting the objects included in the image of the image data 3, but in the fourth embodiment, the monitoring screen data 33 is generated by masking a part of the objects. It differs from Embodiments 1 to 3 in that it is generated.
  • components having the same functions as those in the first embodiment will be denoted by the same reference numerals and description thereof will be omitted.
  • the present invention can also be applied to the monitoring screen data generation apparatuses 1A and 1B according to the second and third embodiments.
  • control unit 20C of the monitoring screen data generation device 1C further includes a mask setting unit 29 in addition to the configuration of the control unit 20.
  • the storage unit 30C of the monitoring screen data generation device 1C can store the post-mask object data 39 in addition to the data stored in the storage unit 30.
  • the mask setting unit 29 reads the object data 32 from the storage unit 30C, generates mask setting screen data based on the object data 32, and outputs the mask setting screen data to the display control unit 26.
  • the display control unit 26 displays a mask setting screen on the display device 4 based on the mask setting screen data.
  • FIG. 26 is a diagram illustrating an example of a mask setting screen displayed on the display device 4.
  • check boxes 73a to 73f are arranged for each symbol part that is an image object
  • check boxes 74a to 74e are arranged for each line part that is an image object.
  • check boxes 75a to 75f are arranged for each character string that is a character object.
  • the mask setting unit 29 uses the input device 5 among the check boxes 73a to 73f, 74a to 74e, and 75a to 75f.
  • the masked object data 39 excluding the object set in the check box where the check operation has been performed is generated.
  • the mask setting unit 29 stores the generated post-mask object data 39 in the storage unit 30C.
  • the mask setting unit 29 displays the symbol types “right-hand pump 2” and “numerical value button 2”.
  • Mask setting is performed on the image object corresponding to.
  • the post-mask object data 39 in which the image objects corresponding to the symbol types “right pump 2” and “numerical button 2” are excluded from the object data 32 is generated.
  • the mask setting unit 29 deletes the post-mask object data 39 stored in the storage unit 30C.
  • FIG. 27 is a flowchart of an example of processing of the control unit 20C according to the fourth embodiment. Note that the processes in steps S70, S71, S76, and S77 shown in FIG. 27 are the same as the processes in steps S50, S51, S56, and S57 shown in FIG. 18, and the description thereof will be omitted below.
  • step S72 the mask setting unit 29 of the control unit 20C generates mask setting screen data based on the object data 32, and the display control unit 26 based on the mask setting screen data.
  • a mask setting screen is displayed on the display device 4.
  • the mask setting unit 29 determines whether or not there is a request for mask setting (step S73).
  • the mask setting unit 29 determines that there is a mask setting request when the above-described setting button 76 is operated. If it is determined that there is a mask setting request (step S73: Yes), the mask setting unit 29 generates post-masking object data 39 excluding the mask-set object (step S74).
  • the screen data generation unit 23 of the control unit 20C generates monitoring screen data 33, which is monitoring screen data, based on the post-masking object data 39 and the part definition data 44 generated in step S74 (step S75). ).
  • the control unit 20C generates device data 43 based on the post-mask object data 39 by the same process as in step S30 (step S76).
  • the mask setting unit 29 can also generate post-mask object data 39 excluding objects other than the selected object.
  • the post-mask object data 39 excluding some objects is generated based on the operation on the check boxes.
  • some objects other than the check boxes can be excluded.
  • the mask setting unit 29 can also generate post-mask object data 39 excluding selected objects from the image of the monitor screen data 33 after generating the monitor screen data 33.
  • the hardware configuration example of the monitoring screen data generation device 1C according to the fourth embodiment is the same as that of the monitoring screen data generation device 1 shown in FIG.
  • the processor 101 can execute the function of the mask setting unit 29 in addition to the function of the control unit 20 described above by reading and executing the program stored in the memory 102 functioning as the storage unit 30C.
  • the monitoring screen data generation device 1C includes the mask setting unit 29 that is an example of a data changing unit.
  • the mask setting unit 29 generates post-mask object data 39 from the object data 32, excluding some of the objects 70a to 70f, 71a to 71e, 72a to 72f (see FIG. 4).
  • the screen data generation unit 23 generates monitoring screen data 33 excluding some objects based on the post-mask object data 39 generated by the mask setting unit 29. Thereby, the monitoring screen data 33 excluding unnecessary objects can be easily generated.
  • Embodiment 5 is different from the first to fourth embodiments in that a function of generating an object included in a plurality of image data 3 images as monitoring screen data 33 arranged on one monitoring screen is added.
  • components having the same functions as those in the first embodiment will be denoted by the same reference numerals and description thereof will be omitted.
  • the present invention can also be applied to the monitoring screen data generation apparatuses 1A to 1C according to the second to fourth embodiments.
  • FIG. 28 is a diagram of a configuration example of the monitoring screen data generation device 1D according to the fifth embodiment.
  • the control unit 20D of the monitoring screen data generation device 1D according to the fifth embodiment includes an object data composition unit 40 in addition to the configuration of the control unit 20.
  • the storage unit 30 ⁇ / b> D of the monitoring screen data generation device 1 ⁇ / b> D can further store the composite object data 47.
  • the image data acquisition unit 21 of the control unit 20D acquires the first image data 3a having the image shown in FIG. 29 and the second image data 3b having the image shown in FIG. 29 and 30 are diagrams showing examples of image data acquired by the image data acquisition unit 21.
  • the first image data 3a shown in FIG. 29 is the same as the image data 3 shown in FIG.
  • the image of the second image data 3b shown in FIG. 30 includes image objects 70g to 70i that are symbol parts, image objects 71f to 71h that are line parts, and character objects 72g to 72k that are character strings. .
  • the object data generation unit 22 generates object data 32 including the object data of the first image data 3a and the object data of the second image data 3b.
  • object data 32a the object data of the first image data 3a
  • object data of the second image data 3b is described as object data 32b.
  • the object data 32a includes image object data 41a, character object data 42a, and device data 43a.
  • the image object data 41a is the same data as the image object data 41 described above
  • the character object data 42a is the same data as the character object data 42 described above
  • the device data 43a is the same data as the device data 43 described above. is there.
  • the object data 32b includes image object data 41b, character object data 42b, and device data 43b.
  • the image object data 41b includes record data for each of the image objects 70g to 70i and record data for each of the image objects 71f to 71h.
  • the record data for each of the image objects 70g to 70i includes data indicating the symbol type, coordinates, and size
  • the record data for each of the image objects 71f to 71h includes data indicating the line type, coordinates, and size. .
  • the character object data 42b includes record data for each of the character objects 72g to 72k.
  • the device data 43b includes record data for each of the image objects 70g to 70i.
  • the object data composition unit 40 performs composition processing of the object data 32a and the object data 32b generated from the two image data 3a and 3b to generate composite object data 47, and the generated composite object data 47 is stored in the storage unit 30D. To remember.
  • the object data composition unit 40 generates character object data 42a and character object data 42b as one character object data 42c as shown in FIG.
  • the object data synthesizing unit 40 searches the character object data 42a and the character object data 42b for a matching character string, and relatively changes some coordinates based on the character string obtained by the search, and performs a synthesizing process. I do.
  • the object data composition unit 40 matches the device name common to the device data 43a and the device data 43b among the plurality of character strings. The composition process is performed based on the character string to be used.
  • the character object data 42a and the character object data 42b have the same device name “first water pipe valve”.
  • the object data composition unit 40 changes the coordinates of the character string of the character object data 42b with reference to the coordinates of the character string “first water pipe valve” of the character object data 42a.
  • the object data composition unit 40 shifts the coordinates of the character string “first water pipe valve” of the character object data 42b to the coordinates of the character string “first water pipe valve” of the character object data 42a. Further, the object data composition unit 40 shifts the coordinates of the character strings other than the character string “first water pipe valve” of the character object data 42b by the same shift amount as the coordinates of the character string “first water pipe valve”. The coordinates of each record data included in the object data 42b are changed. In the example shown in FIG. 31, the shift amount is “ ⁇ 190, 0”.
  • the object data composition unit 40 deletes record data having a character string overlapping with the character string of the character object data 42a from the character string of the character object data 42b whose coordinates are changed, and the character object data 42a and the character object are deleted.
  • the data 42b is synthesized. Thereby, the character object data 42c shown in FIG. 31 is generated.
  • the object data composition unit 40 performs composition processing for generating device data 43a and device data 43b as one device data 43c.
  • the object data composition unit 40 retrieves a device name that matches between the device data 43a and the device data 43b, and performs composition processing based on the device name obtained by the retrieval.
  • the composition processing is performed based on one device name.
  • the device data 43a and the device data 43b have the same device name “first water pipe valve”.
  • the object data composition unit 40 changes the coordinates of the record data included in the device data 43b with reference to the coordinates of the device name “first water pipe valve” in the device data 43a.
  • the object data composition unit 40 shifts the coordinates of the character string “first water pipe valve” of the equipment data 43b to the coordinates of the equipment name “first water pipe valve” of the equipment data 43a.
  • the object data composition unit 40 shifts the coordinates of the character string other than the device name “first water pipe valve” of the device data 43b by the same shift amount as the coordinates of the device name “first water pipe valve”.
  • the coordinates of each record data included in the data 43b are changed. In the example shown in FIG. 32, the shift amount is “ ⁇ 190, 0”.
  • the object data composition unit 40 deletes the record data having a character string that overlaps the character string of the device data 43a from the record data of the device data 43b whose coordinates have been changed, and obtains the device data 43a and the device data 43b. Synthesize. Thereby, the device data 43c shown in FIG. 32 is generated.
  • the object data composition unit 40 performs composition processing based on the device names that match between the device data 43a and 43b, but the device name and symbol type that match between the device data 43a and 43b.
  • the combination process can also be performed based on the combination.
  • the object data composition unit 40 displays the coordinates and the coordinates of each object so that the objects 70a to 70i, 71a to 71h, 72a to 72k defined by the character object data 42c and the device data 43c can be displayed on one monitoring screen.
  • the composite object data 47 is generated by performing a size correction process. The correction process can be performed by reducing and shifting the coordinate areas of the objects 70a to 70i, 71a to 71h, and 72a to 72k.
  • the object data composition unit 40 stores the generated composition object data 47 in the storage unit 30D.
  • the composite object data 47 includes character object data 92 and device data 93.
  • FIG. 33 is a diagram illustrating an example of character object data 92 included in the composite object data 47
  • FIG. 34 is a diagram illustrating an example of device data 93 included in the composite object data 47.
  • the coordinates of each character object in the character object data 92 are changed from the coordinates of each character object so that the coordinates of each character object can be displayed on one monitoring screen.
  • the size of each character object is not changed, but the object data composition unit 40 can also change the size of each character object.
  • the synthesized object data 47 can change the character object size at the same reduction ratio as that of the image object. Thereby, each object can be reduced with the same balance as the image data 3a and 3b. Further, the composite object data 47 can also make the reduction rate of the size of the character object smaller than that of the image object. This prevents the character object from becoming too small. Further, the synthesized object data 47 can be limited so that the size of the character object does not become smaller than the lower limit value.
  • the coordinates and size of each symbol type in the device data 43c are changed so that the coordinates and size of each symbol type in the device data 93 can be displayed on one monitoring screen.
  • the screen data generation unit 23 generates monitoring screen data 33 based on the composite object data 47.
  • FIG. 35 is a diagram illustrating an example of the monitoring screen 7 displayed on the display device 4 by the monitoring screen data 33 generated by the screen data generation unit 23 based on the composite object data 47.
  • the monitoring screen 7 includes an image obtained by combining the image shown in FIG. 29 and the image shown in FIG. 30 as one screen.
  • the assignment processing unit 24 generates assigned monitoring screen data 35 based on the definition data 34 that defines the state transition and the device data 93 of the composite object data 47.
  • the allocated monitoring screen data 35 is data including allocation data 36 and monitoring screen data 33 which are data defining state transitions for image objects included in the monitoring screen.
  • FIG. 36 is a flowchart illustrating an example of processing of the control unit 20D according to the fifth embodiment, between step S11 and step S12 in FIG. 12, between step S51 and step SS52 in FIG. 18, or FIG. The process performed between step S71 and step S72 is shown.
  • step S81 the object data composition unit 40 of the control unit 20D determines whether there is object data generated from a plurality of different image data (step S81).
  • the object data composition unit 40 when the object data 32 stored in the storage unit 30D includes object data generated from a plurality of different image data, the object data generated from a plurality of different image data Judge that there is. Whether or not the object data is generated from a plurality of different image data is determined based on the degree of coincidence of the object data.
  • step S81 If the object data composition unit 40 determines that there is object data generated from a plurality of different image data (step S81: Yes), is there any record data with a matching character string or device name between the different object data? It is determined whether or not (step S82). In the process of step S82, the object data composition unit 40 determines whether there is a matching character string between character object data obtained from different image data. In addition, the object data composition unit 40 determines whether there is a device name that matches between device data obtained from different image data.
  • the object data composition unit 40 determines one coordinate of the record data that matches the character string or device name. As a reference, the coordinates of the object data including the other record data are relatively changed to synthesize a plurality of object data (step S83).
  • the object data composition unit 40 generates a character object data 42c by combining a plurality of character object data 42a and 42b as shown in FIG. 31, for example, and as shown in FIG.
  • Device data 43c is generated by combining the device data 43a and 43b.
  • the object data composition unit 40 determines whether or not there is record data having coordinates outside the screen (step S84). When it is determined that there is record data having coordinates outside the screen (step S84: Yes), the object data composition unit 40 corrects the coordinates and size of the record data so that the coordinates of all the record data are within one screen. (Step S85).
  • the object data composition unit 40 corrects the character object data 42c shown in FIG. 31 to generate the character object data 92 shown in FIG. 33, and corrects the device data 43c shown in FIG. Device data 93 shown in FIG. 34 can be generated.
  • step S85 when it is determined that there is no object data generated from a plurality of different image data (step S81: No), when it is determined that there is no matching record data (step S82: No) ) Or when it is determined that there is no record data having coordinates outside the screen (step S84: No), the object data composition unit 40 ends the process shown in FIG.
  • the allocation processing unit 24 can change the behavior to be allocated according to the size of the image object, similarly to the allocation processing unit 24B. Thereby, even when the size is small and it is difficult to visually recognize the behavior of the image object, it is possible to assign a behavior that is easy to visually recognize.
  • the object data composition unit 40 can generate the composition object data 47 within a range where the size of the object does not fall below the threshold value. Thereby, it can suppress that the monitoring screen data 33 with which an object is too small are produced
  • the hardware configuration example of the monitoring screen data generation device 1D according to the fifth embodiment is the same as that of the monitoring screen data generation device 1 shown in FIG.
  • the processor 101 can execute the function of the object data composition unit 40 in addition to the function of the control unit 20 described above by reading and executing the program stored in the memory 102 functioning as the storage unit 30D.
  • the monitoring screen data generation device 1D includes the object data composition unit 40.
  • the object data synthesis unit 40 synthesizes the object data 32a and 32b generated from the plurality of image data acquired by the image data acquisition unit 21.
  • the screen data generation unit 23 generates monitoring screen data 33 that is data of one monitoring screen based on the combined object data 47 combined by the object data combining unit 40. Thereby, the monitoring screen data 33 which is data of one monitoring screen can be easily generated from a plurality of image data.
  • the configuration described in the above embodiment shows an example of the contents of the present invention, and can be combined with another known technique, and can be combined with other configurations without departing from the gist of the present invention. It is also possible to omit or change the part.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Image Processing (AREA)

Abstract

監視画面データ生成装置(1)は、オブジェクトデータ生成部(22)と、画面データ生成部(23)と、割付処理部(24)とを備える。オブジェクトデータ生成部(22)は、画像データに基づく画像に含まれる複数のオブジェクトを識別し、オブジェクトデータ(32)を生成する。画面データ生成部(23)は、オブジェクトデータ(32)に基づいて、監視画面データ(33)を生成する。割付処理部(24)は、状態遷移を定義する定義データ(34)とオブジェクトデータ(32)とに基づいて、監視画面データ(33)の監視画面に含まれる画像オブジェクトに状態遷移を定義するデータを割り付ける。

Description

監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラム
 本発明は、監視画面データを生成する監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラムに関する。
 設備または施設に設けられた複数の機器の監視および制御を行う監視制御システムは、監視対象の機器を示すシンボルを含む複数の画像オブジェクトが複数配置された監視画面を表示装置へ表示する。かかる監視画面では、監視対象の状態に基づいてシンボルが視覚的に変化して状態遷移することで監視を容易にしている。
 特許文献1には、監視画面のデータである監視画面データを生成する監視画面データ生成装置が開示されており、かかる監視画面データ生成装置においては、外部から取り込んだ画像データから画像オブジェクトを含む監視画面データが生成される。
特開2012-174128号公報
 しかしながら、従来の監視画面データ生成装置では、状態遷移を定義するデータをシステム製作者が手作業で画像オブジェクトに割り付けて行う必要があり、監視画面データの作成に多くの時間と労力が必要である。
 本発明は、上記に鑑みてなされたものであって、監視対象の機器を示す画像オブジェクトに状態遷移を定義するデータを割り付けた監視画面データを容易に生成することができる監視画面データ生成装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明の監視画面データ生成装置は、画像データ取得部と、オブジェクトデータ生成部と、画面データ生成部と、割付処理部とを備える。前記画像データ取得部は、画像のデータである画像データを取得する。前記オブジェクトデータ生成部は、前記画像データ取得部によって取得された前記画像データの前記画像に含まれる複数のオブジェクトを識別し、前記複数のオブジェクトの情報を含むオブジェクトデータを生成する。前記画面データ生成部は、前記オブジェクトデータ生成部によって生成された前記オブジェクトデータに基づいて、前記複数のオブジェクトのうち画像のオブジェクトである画像オブジェクトを含む監視画面のデータである監視画面データを生成する。前記割付処理部は、状態遷移を定義する定義データと前記オブジェクトデータとに基づいて、前記監視画面データの監視画面に含まれる前記画像オブジェクトに前記状態遷移を定義するデータを割り付ける。
 本発明によれば、監視対象の機器を示す画像オブジェクトに状態遷移を定義するデータを割り付けた監視画面データを容易に生成することができる、という効果を奏する。
実施の形態1にかかる監視画面データ生成装置の構成例を示す図 実施の形態1にかかる監視画面データ生成装置の制御部による処理の一例を示す図 実施の形態1にかかる監視画面データ生成装置の具体的構成例を示す図 実施の形態1にかかる画像データに基づく画像の一例を示す図 実施の形態1にかかる画像オブジェクトデータの一例を示す図 実施の形態1にかかる文字オブジェクトデータの一例を示す図 実施の形態1にかかる機器データの一例を示す図 実施の形態1にかかる部品定義データの一例を示す図 実施の形態1にかかる監視画面データの画面の一例を示す図 実施の形態1にかかる項目定義データの一例を示す図 実施の形態1にかかる割付データの一例を示す図 実施の形態1にかかる制御部の処理の一例を示すフローチャート 図12に示すステップS11の処理を示すフローチャート 図12に示すステップS13の処理を示すフローチャート 実施の形態1にかかる監視画面データ生成装置のハードウェア構成の一例を示す図 実施の形態2にかかる監視画面データ生成装置の構成例を示す図 実施の形態2にかかる表示装置に表示される拡縮率設定画面の一例を示す図 実施の形態2にかかる制御部の処理の一例を示すフローチャート 実施の形態3にかかる監視画面データ生成装置の構成例を示す図 実施の形態3にかかる項目テンプレートデータの一例を示す図 実施の形態3にかかる信号定義データの一例を示す図 実施の形態3にかかる割付データの一例を示す図 実施の形態3にかかる項目テンプレートデータの他の例を示す図 実施の形態3にかかる制御部の処理の一例を示すフローチャート 実施の形態4にかかる監視画面データ生成装置の構成例を示す図 実施の形態4にかかる表示装置に表示されるマスク設定画面の一例を示す図 実施の形態4にかかる制御部の処理の一例を示すフローチャート 実施の形態5にかかる監視画面データ生成装置の構成例を示す図 実施の形態5にかかる画像データ取得部によって取得される第1の画像データの例を示す図 実施の形態5にかかる画像データ取得部によって取得される第2の画像データの例を示す図 実施の形態5にかかるオブジェクトデータの合成についての説明図 実施の形態5にかかるオブジェクトデータの合成についての説明図 実施の形態5にかかる合成オブジェクトデータに含まれる文字オブジェクトデータの一例を示す図 実施の形態5にかかる合成オブジェクトデータに含まれる機器データの一例を示す図 実施の形態5にかかる監視画面の一例を示す図 実施の形態5にかかる制御部の処理の一例を示すフローチャート
 以下に、本発明の実施の形態にかかる監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラムを図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
 図1は、本発明の実施の形態1にかかる監視画面データ生成装置の構成例を示す図である。図1に示す監視画面データ生成装置1は、通信部10と、制御部20と、記憶部30とを備える。かかる監視画面データ生成装置1は、設備または設備といったプラントに設けられた複数の機器の監視を行うための監視画面のデータである監視画面データを生成する。監視対象のプラントは、例えば、浄水場、発電所、または工場である。
 監視画面データ生成装置1は、複数の画像オブジェクトを含む監視画面のデータである監視画面データを生成する。監視画面を構成する複数の画像オブジェクトには、監視対象の機器を表すシンボル部品、および監視対象の機器間を結びつける線部品が含まれる。以下、シンボル部品をシンボルと記載する場合がある。
 監視画面データは、プラントに設けられた複数の機器の監視および制御を行う監視制御システムにおいて、各機器の監視および制御を行うために不図示の表示装置へ表示される画面を生成するための情報である。かかる監視画面データには、後述するように、各オブジェクトのデータに加え、画像オブジェクトに割り付けられた状態遷移を定義するデータが含まれる。
 ここで、上記状態遷移には、監視対象の機器から受信される信号への画像オブジェクトの振る舞い、および画像オブジェクトへ操作があった場合の振る舞いの少なくとも一方が含まれる。また、振る舞いには、画像オブジェクトの様態の変化、および機器操作画面の表示の少なくとも一つが含まれる。
 画像オブジェクトの様態の変化には、画像オブジェクトの色、形状、および模様の少なくとも一つの変化が含まれる。また、画像オブジェクトの様態の変化には、画像オブジェクト内に表示される数値の変化も含まれる。機器操作画面は、画像オブジェクトに割り当てられた信号の入力または出力を行う機器を操作するための画面である。
 通信部10は、ネットワーク2を介して不図示の他の装置との間で情報の送受信を行う。ネットワーク2は、イントラネットであるが、イントラネット以外のネットワークであってもよい。
 制御部20は、通信部10を介して取得される画像データと記憶部30に記憶されたデータとに基づいて、画像オブジェクトに状態遷移を定義するデータが割り付けられた監視画面データを生成する。
 制御部20は、画像データ取得部21と、オブジェクトデータ生成部22と、画面データ生成部23と、割付処理部24と、データ出力部25とを備える。記憶部30は、テンプレートデータ31と、オブジェクトデータ32と、監視画面データ33と、定義データ34と、割付済監視画面データ35とを記憶することができる。
 図2は、制御部20による処理の一例を示す図であり、以下、図2を参照しつつ、図1に示す制御部20の処理について説明する。なお、図2に示す例では、説明の便宜上、画像データ取得部21によって取得される画像データ3の画像の一部のみを表示している。なお、画像データ3の画像とは、画像データ3のデータ化前の画像であり、画像データ3を再生して得られる画像である。
 オブジェクトデータ生成部22は、画像データ取得部21によって取得された画像データ3の画像に含まれる複数のオブジェクト60a~60dを識別し、複数のオブジェクト60a~60dの情報を含むオブジェクトデータ32を生成する。
 オブジェクト60aは、シンボル部品であり、画像オブジェクトである。オブジェクト60bは、文字列であり、文字オブジェクトである。オブジェクト60c,60dは、線部品であり、画像オブジェクトである。以下においては、説明の便宜上、オブジェクト60a,60bへの処理について主に説明する。また、オブジェクト60aを画像オブジェクト60aと記載し、オブジェクト60bを文字オブジェクト60bと記載する場合がある。
 オブジェクトデータ32には、画像オブジェクトデータ41と、文字オブジェクトデータ42と、機器データ43とが含まれる。画像オブジェクトデータ41は、画像オブジェクト60aの情報を含む。また、文字オブジェクトデータ42は、文字オブジェクト60bの情報を含む。
 オブジェクトデータ生成部22は、記憶部30に記憶されたテンプレートデータ31を用いた画像認識処理によって、画像データ3から、画像オブジェクト60aのオブジェクト名称、および座標を識別し、画像オブジェクトデータ41を生成する。
 図2に示す例では、画像オブジェクトデータ41に含まれる画像オブジェクト60aの情報として、オブジェクト名称「電磁弁」、および座標「x1,y2」を含む。なお、以下において、画像オブジェクト60aのオブジェクト名称は、シンボル種別と記載する場合がある。
 また、オブジェクトデータ生成部22は、文字認識処理によって、画像データ3から、文字オブジェクト60bの文字列、および座標を識別し、文字オブジェクトデータ42を生成する。図2に示す例では、文字オブジェクトデータ42に含まれる文字オブジェクト60bの情報として、文字列「送水管弁」、および座標「x1,y1」を含む。
 さらに、オブジェクトデータ生成部22は、画像オブジェクトデータ41と文字オブジェクトデータ42とに基づいて、機器データ43を生成する。具体的には、オブジェクトデータ生成部22は、画像オブジェクト60aの座標と文字オブジェクト60bの座標との間の距離が設定範囲内にあるか否かを判定する。
 オブジェクトデータ生成部22は、画像オブジェクト60aの座標と文字オブジェクト60bとの座標間の距離が設定範囲内にある場合、画像オブジェクト60aのオブジェクト名称と座標と文字オブジェクト60bの文字列とが関連付けられた機器データ43を生成する。
 図2に示す機器データ43では、オブジェクト種別「電磁弁」、文字列「送水管弁」、および座標「x1,y2」を含む。なお、機器データ43に含まれる座標は、文字オブジェクト60bの座標ではなく、画像オブジェクト60aの座標である。
 画面データ生成部23は、文字オブジェクトデータ42と、機器データ43と、定義データ34とに基づいて、複数のオブジェクト61a~61dを含む監視画面のデータである監視画面データ33を生成する。
 定義データ34には、オブジェクト名称「電磁弁」、および電磁弁のシンボル画像を含む不図示の部品定義データが含まれる。画面データ生成部23は、部品定義データから電磁弁のシンボル画像を抽出し、かかる電磁弁のシンボル画像をオブジェクトデータ32に含まれる座標「x1,y2」を割り付け、文字オブジェクトデータ42に含まれる文字列「送水管弁」を座標「x1,y1」に割り付けて監視画面データ33を生成する。
 上述した定義データ34は、後述する入力装置を介して記憶部30に記憶される。なお、制御部20は、外部装置で生成された定義データ34がネットワーク2を介して通信部10で受信される場合、通信部10で受信された定義データ34を記憶部30に記憶することができる。
 図2に示す監視画面データ33におけるオブジェクト61a,61c,61dは、オブジェクト60a,60c,60dとオブジェクト名称および座標位置が一致する画像オブジェクトであり、オブジェクト61bは、オブジェクト60bと文字列および座標位置が一致する文字オブジェクトである。なお、画面データ生成部23は、機器データ43に代えて、画像オブジェクトデータ41を用いて、監視画面データ33を生成することもできる。
 割付処理部24は、監視画面に含まれる画像オブジェクト60aに状態遷移を定義するデータを割り付けたデータである割付データ36を生成する。図2に示す例では、割付データ36は、オブジェクト名称「電磁弁」、および状態遷移「状態遷移1」を含むデータである。状態遷移「状態遷移1」は、信号の状態に応じた振る舞いを示す。割付処理部24は、割付データ36と監視画面データ33とを含む割付済監視画面データ35を生成する。
 データ出力部25は、割付処理部24によって状態遷移を示す情報が割り付けられた画像オブジェクト61aを含む割付済監視画面データ35を出力する。また、割付済監視画面データ35は、後述する表示装置に表示することもできる。
 このように、監視画面データ生成装置1は、画像データ3から、監視対象物を示す画像オブジェクト61aに状態遷移を定義するデータを割り付けた割付済監視画面データ35を自動的に生成することができる。したがって、画像オブジェクトに状態遷移を定義するデータを手作業で割り付ける場合に比べ、画像オブジェクト61aに状態遷移を定義するデータを割り付けた割付済監視画面データ35を容易に生成することができる。
 以下、監視画面データ生成装置1の構成および動作についてさらに詳細に説明する。図3は、監視画面データ生成装置1の具体的構成例を示す図である。
 図3に示す監視画面データ生成装置1の制御部20は、上述した画像データ取得部21、オブジェクトデータ生成部22、画面データ生成部23、割付処理部24、およびデータ出力部25に加え、さらに、表示制御部26と、入力処理部27とを備える。
 画像データ取得部21は、外部からネットワーク2を介して監視画面データ生成装置1へ入力される画像データ3を通信部10から取得する。画像データ3は、コンピュータ画面のスクリーンショットによって得られる画像データ、または手書きによって描画され撮像手段によって撮像された画像データである。なお、画像データ3は、コンピュータ画面を撮像手段によって撮像して得られる画像データであってもよい。撮像手段には、カメラの他、スキャナが含まれる。
 図4は、画像データ3の画像の一例を示す図である。図4に示す画像データ3の画像には、シンボル部品である画像オブジェクト70a~70fと、線部品である画像オブジェクト71a~71eと、文字列である文字オブジェクト72a~72fとが含まれる。以下、画像オブジェクト70a~70fを画像オブジェクト70と記載し、画像オブジェクト71a~71eを画像オブジェクト71と記載し、文字オブジェクト72a~72fを文字オブジェクト72と記載する場合がある。
 図3に示すオブジェクトデータ生成部22は、テンプレートマッチング処理部51と、文字識別処理部52と、機器データ生成部53とを備える。テンプレートマッチング処理部51は、第1の識別部の一例であり、文字識別処理部52は、第2の識別部の一例である。
 テンプレートマッチング処理部51は、記憶部30に記憶されたテンプレートデータ31に基づいて、画像データ3の画像に含まれる画像オブジェクト70,71を識別する。テンプレートデータ31には、シンボル部品の基準画像とシンボル種別とがシンボル種別毎に関連付けられた情報、および線部品の基準画像と線種別とが線種別毎に関連付けられた情報が含まれている。
 テンプレートマッチング処理部51は、各画像オブジェクト70とシンボル部品の基準画像とを比較することで、各画像オブジェクト70のシンボル種別、座標、およびサイズを判定する。また、テンプレートマッチング処理部51は、各画像オブジェクト71と線部品の基準画像とを比較することで、各画像オブジェクト71の線名称、座標、およびサイズを判定する。
 テンプレートマッチング処理部51は、画像オブジェクト70a~70f,71a~71eの名称、座標、およびサイズを含む画像オブジェクトデータ41を生成し、記憶部30に記憶する。図5は、画像オブジェクトデータ41の一例を示す図である。
 図5に示すように、画像オブジェクトデータ41には、各画像オブジェクト70の種別と、座標と、サイズとが互いに関連付けられたデータを含む。シンボル種別は、シンボル部品である画像オブジェクト70の種別を示し、座標は、画像オブジェクト70の中心座標または端部の座標を示し、サイズは、画像オブジェクト70の横×縦のサイズを示す。なお、画像オブジェクト70の種別は、同一種別の画像オブジェクトであっても、区別が付くように、図5に示す例では、シンボル種別には数字が付されている。
 図5に示す例では、画像オブジェクトデータ41は、画像オブジェクト70aのデータとして、シンボル種別「電磁弁1」、座標「50,25」、およびサイズ「10×10」が関連付けられたデータを含む。また、画像オブジェクト70bのデータとして、シンボル種別「電磁弁2」、座標「240,25」、およびサイズ「10×10」が関連付けられたデータを含む。画像オブジェクトデータ41は、画像オブジェクト70a,70bのデータと同様に、画像オブジェクト70c~70fのデータを含む。
 また、図5に示す例では、画像オブジェクト71a~71eの情報は図示されていないが、画像オブジェクトデータ41には、各画像オブジェクト71の線名称、座標、およびサイズを示すデータが含まれる。座標は、画像オブジェクト71の始点、終点、および分岐点の座標であり、サイズは、画像オブジェクト71の線幅である。
 図3に戻って、オブジェクトデータ生成部22の説明を続ける。オブジェクトデータ生成部22の文字識別処理部52は、文字認識処理によって、画像データ3の画像に含まれる文字オブジェクト72a~72fの文字列、座標、およびサイズを識別し、文字オブジェクトデータ42を生成する。図6は、文字オブジェクトデータ42の一例を示す図である。
 図6に示す文字オブジェクトデータ42は、各文字オブジェクト72の文字列、座標、およびサイズが互いに関連付けられたデータを含む。座標は、文字オブジェクト72の先頭文字の座標または中心座標を示し、サイズは、文字オブジェクト72のフォントサイズである。
 図6に示す例では、文字オブジェクトデータ42は、文字オブジェクト72aのデータとして、文字列「第1浄水場」と、座標「5,5」と、サイズ「18」とが関連付けられたデータを含む。また、文字オブジェクト72bのデータとして、文字列「第1送水管弁」と、座標「50,15」と、サイズ「12」とが関連付けられたデータを含む。文字オブジェクトデータ42は、文字オブジェクト72a,72bのデータと同様に、文字オブジェクト72c~72fのデータを含む。
 図3に戻って、オブジェクトデータ生成部22の説明を続ける。オブジェクトデータ生成部22の機器データ生成部53は、画像オブジェクトデータ41と文字オブジェクトデータ42とに基づいて、機器データ43を生成する。
 具体的には、機器データ生成部53は、画像オブジェクト70の座標と文字オブジェクト72の座標とを比較し、互いの座標間の距離が設定範囲内にある画像オブジェクト70と文字オブジェクト72とを互いに関連するオブジェクトとして判定する。そして、画像オブジェクト70のシンボル種別、座標、およびサイズと、画像オブジェクト70に関連する文字オブジェクト72の文字列とが関連付けられた機器データ43を生成する。
 なお、上述した設定範囲は、画像オブジェクト70の座標と文字オブジェクト72の座標との位置関係で範囲を異ならせてもよい。この場合、画像オブジェクト70の座標と文字オブジェクト72の座標とが座標上で上下関係である場合の距離の設定範囲ythを、画像オブジェクト70の座標と文字オブジェクト72の座標とが座標上で左右関係である場合の距離の設定範囲xthよりも大きくしてもよい。これにより、座標上で画像オブジェクトと上下関係にある文字オブジェクトを優先して関連付けることができる。
 また、機器データ生成部53は、画像オブジェクトの座標から設定範囲内に文字オブジェクトが複数存在する場合、座標上で上限関係にある文字オブジェクトを優先して画像オブジェクトと関連付けることができる。
 また、機器データ生成部53は、画像オブジェクトと文字オブジェクトと間の上下方向の距離yと左右方向の距離xとをそれぞれ異なる重み付けをして、画像オブジェクトと文字オブジェクトと間の距離dを求め、かかる距離dが最小の文字オブジェクトを画像オブジェクトと関連付けることができる。
 ここで、画像オブジェクトの座標を「x1,x1」とし、文字オブジェクトの座標を「x2,y2」とする。この場合、機器データ生成部53は、画像オブジェクトの座標から設定範囲内に存在する複数の文字オブジェクトのうち、下記式(1)で導かれる距離dが最小の文字オブジェクトを画像オブジェクトと関連付けることができる。なお、下記式(1)において、k1<k2とすることで、上下方向の重み付けを大きくできる。
d=√{(k1×x1-k1×x2)+(k2×y1-k2×y2)} ・・(1)
 なお、機器データ生成部53は、画像オブジェクトの座標から設定範囲内に複数の文字オブジェクトが存在する場合、複数の文字オブジェクトを画像オブジェクトに関連付けることもできる。
 図7は、機器データ43の一例を示す図である。図7に示すように、機器データ43には、シンボル種別、機器名称、座標、およびサイズが互いに関連付けられたデータが含まれる。
 図7に示す例では、シンボル種別「電磁弁1」には、機器名称「第1送水管弁」、座標「50,25」と、サイズ「10×10」とが関連付けられる。また、シンボル種別「電磁弁2」には、機器名称「第2送水管弁」、座標「240,25」と、サイズ「10×10」とが関連付けられている。同様に、シンボル種別「右口ポンプ1」、「数値ボタン1」、「右口ポンプ2」、および「数値ボタン2」にも、機器名称、座標、およびサイズが関連付けられる。
 オブジェクトデータ生成部22は、上述のように生成した画像オブジェクトデータ41、文字オブジェクトデータ42、および機器データ43を含むオブジェクトデータ32を記憶部30に記憶する。
 図3に戻って、制御部20の説明を続ける。制御部20の画面データ生成部23は、文字オブジェクトデータ42、機器データ43、および部品定義データ44に基づいて、監視画面データ33を生成する。部品定義データ44は、定義データ34に含まれるデータであり、シンボル種別とシンボル画像とが関連付けられたデータである。
 図8は、部品定義データ44の一例を示す図である。図8に示すように、シンボル種別「電磁弁」は、電磁弁のシンボル画像に関連付けられており、シンボル種別「右口ポンプ」は、右口ポンプのシンボル画像に関連付けられている。
 図9は、監視画面データ33の画面の一例を示す図である。図9に示す例では、シンボル部品である画像オブジェクト80a~80fと、線部品である画像オブジェクト81a~81eと、文字列である文字オブジェクト82a~82fとが含まれる。
 画面データ生成部23は、画像オブジェクトデータ41に含まれる画像オブジェクト70a~70fのシンボル種別、座標、およびサイズに基づき、図9に示す画像オブジェクト80a~80fを監視画面に割り付ける。
 具体的には、画面データ生成部23は、画像オブジェクト70aのシンボル種別に関連付けられたシンボル画像を部品定義データ44から抽出する。画面データ生成部23は、抽出したシンボル画像を画像オブジェクト70aのサイズで画像オブジェクト70aの座標位置に画像オブジェクト80aとして割り付ける。
 すなわち、画面データ生成部23は、シンボル種別「電磁弁」の画像を、サイズ「10×10」で座標「50,25」の位置に画像オブジェクト80aとして割り付ける。画面データ生成部23は、画像オブジェクト80b~80fについても、画像オブジェクト80aと同様の処理を行う。
 また、画面データ生成部23は、画像オブジェクトデータ41に含まれる画像オブジェクト71a~71eの線種別、座標、およびサイズに基づき、図9に示す画像オブジェクト81a~81eを監視画面に割り付ける。
 具体的には、画面データ生成部23は、画像オブジェクト81aの線種別に関連付けられた線画像を部品定義データ44から抽出する。画面データ生成部23は、抽出した線画像を画像オブジェクト71aのサイズで画像オブジェクト71aの座標位置に画像オブジェクト81aとして割り付ける。画面データ生成部23は、画像オブジェクト81b~81eについても、画像オブジェクト81aと同様の処理を行う。
 また、画面データ生成部23は、文字オブジェクトデータ42に含まれる文字オブジェクト72a~72fの文字列、座標、およびサイズに基づき、図9に示す文字オブジェクト82a~82fを監視画面に割り付ける。
 具体的には、画面データ生成部23は、文字オブジェクト72aの文字列を文字オブジェクト72aのサイズで文字オブジェクト72aの座標位置に文字オブジェクト82aとして割り付ける。すなわち、画面データ生成部23は、文字列「第1浄水場」を、サイズ「18」で座標「5,5」の位置に文字オブジェクト82aとして割り付ける。画面データ生成部23は、文字オブジェクト82b~82fについても、文字オブジェクト82aと同様の処理を行う。
 画面データ生成部23によって生成される監視画面データ33は、各画像オブジェクト80a~80f,81a~81eの画像、オブジェクト名称、および座標を含み、各文字オブジェクト82a~82fの文字列、および座標を含む。なお、監視画面データ33は、各画像オブジェクト80a~80f,81a~81eが状態遷移可能に表示されることができればよく、データ構成は上述した例に限定されない。
 図3に戻って、制御部20の説明を続ける。制御部20の割付処理部24は、項目定義データ45とオブジェクトデータ32とに基づいて、監視画面に含まれる画像オブジェクト80a~80fに状態遷移を定義するデータを割り付けた割付済監視画面データ35を生成する。項目定義データ45は、定義データ34に含まれるデータであり、状態遷移を定義するデータである。
 図10は、項目定義データ45の一例を示す図である。項目定義データ45は、状態遷移を定義するデータであり、図10に示すように、機器名称、振る舞い、信号名称、および信号コードが関連付けられたデータである。なお、図10に示す例では、状態遷移同士の区別が付くように、状態遷移には数字が付されている。
 「機器名称」は、プラントに設けられた監視対象の機器名称である。「振る舞い」は、画像オブジェクト80であるシンボルの振る舞いを示す情報である。かかる「振る舞い」は、例えば、信号の状態によって画像オブジェクト80をどのように変化させるかを示す情報、画像オブジェクト80への操作に基づいて監視対象の機器の操作画面を表示させる情報である。
 「信号名称」は、監視対象の機器から受信される信号の名称であり、「入」は、機器が動作しているか停止しているかを示す信号を意味し、「故障」は、故障の発生を示す信号を意味し、「流量」は、ポンプによって流れる水量を意味する。「信号コード」は、プラントの監視および制御を行う監視制御システムに含まれる機器の信号の識別コートであり、機器の信号は、例えば、計装信号、制御信号、またはセンサ信号である。
 図10に示す例では、項目定義データ45において、機器名称「第1送水管弁」には、振る舞い「振る舞い1」、信号名称「入」、信号コード「D11」が関連付けられている。「振る舞い1」は、信号の状態と画像オブジェクト80の色、形状、および模様の少なくとも一つの変化態様とが関連付けられた情報である。したがって、信号コード「D11」の信号の状態に基づいて画像オブジェクト80の態様が変化する。
 また、項目定義データ45の機器名称「第1送水管弁」には、振る舞い「振る舞い2」、信号名称「故障」、信号コード「D12」が関連付けられている。「振る舞い2」は、信号の状態と画像オブジェクト80の色、形状、および模様の少なくとも一つの変化態様とが関連付けられた情報である。したがって、信号コード「D12」の信号の状態に基づいて画像オブジェクト80の態様が変化する。
 項目定義データ45では、項目定義データ45の機器名称「第2送水管弁」、「第1送水ポンプ」、および「第2送水ポンプ」についても機器名称「第1送水管弁」の場合と同様に、振る舞い、信号名称、および信号コードが関連付けられている。例えば、機器名称「第1送水ポンプ」には、振る舞い「振る舞い6」、信号名称「流量」、信号コード「D16」が関連付けられている。「振る舞い6」は、信号の状態を表示することを示す情報である。したがって、信号コード「D16」の信号の状態である流量が画像オブジェクト80に表示される。
 割付処理部24は、項目定義データ45とオブジェクトデータ32とに基づいて、割付データ36を生成する。具体的には、割付処理部24は、項目定義データ45に含まれる機器名称と機器データ43に含まれる機器名称とを比較する。そして、割付処理部24は、機器データ43に含まれる機器名称と一致する機器名称を含む項目定義データ45に含まれる振る舞いおよび信号を機器データ43に含まれるシンボル種別と関連付けて割付データ36を生成する。
 図11は、割付データ36の一例を示す図である。図11に示すように、割付データ36は、シンボル種別、振る舞い、および信号コードが関連付けられたデータである。図11に示す割付データ36では、シンボル種別「電磁弁1」のシンボルである画像オブジェクト80aに対して、振る舞い「振る舞い1」および信号コード「D11」が関連付けられている。
 また、シンボル種別「電磁弁1」のシンボルである画像オブジェクト80aに対して、振る舞い「振る舞い2」および信号コード「D12」が関連付けられている。画像オブジェクト80b~80fであるシンボルに対しても、同様に振る舞いと信号コードが割り付けられている。
 なお、割付データ36は、シンボルである画像オブジェクト80a~80fに振る舞いと信号とを割り付けられることができればよく、図11に示す例に限定されない。例えば、画像オブジェクト80a~80fのシンボル種別ではなく、画像オブジェクト80a~80fの識別子に対して、振る舞いと信号コードが割り付けられていてもよい。
 また、割付データ36には、画像オブジェクト80a~80fの識別子またはシンボル種別に代えて、画像オブジェクト80a~80fの座標を示す情報を含めていてもよい。すなわち、割付データ36は、画像オブジェクト80a~80fを特定できる情報に振る舞いと信号コードが割り付けられたデータであればよい。
 また、割付済監視画面データ35において画像オブジェクト80a~80fに振る舞いと信号とを割り付けることができればよく、上述した割付データ36以外の割付データによって、画像オブジェクト80a~80fに振る舞いと信号とを割り付けてもよい。すなわち、結果的に、プラントの監視および制御を行う監視制御システムにおいて、監視対象の機器を示す画像オブジェクト80に振る舞いと信号とが割り付けられ、信号の状態によって振る舞いが実行されるように割付済監視画面データ35が生成されていればよい。
 図3に戻って、制御部20の説明を続ける。制御部20の表示制御部26は、記憶部30に記憶されたデータを表示装置4に表示することができる。具体的には、表示制御部26は、オブジェクトデータ32、監視画面データ33、定義データ34、および割付済監視画面データ35の少なくとも一つを選択的に表示装置4に表示することができる。
 制御部20の入力処理部27は、入力装置5への入力に基づいて、オブジェクトデータ32、監視画面データ33、定義データ34、および割付済監視画面データ35の少なくとも一つを変更することができる。
 制御部20の処理を、フローチャートを用いて説明する。図12は、実施の形態1にかかる制御部20の処理の一例を示すフローチャートである。
 図12に示すように、制御部20の画像データ取得部21は、外部から画像データ3を取得する(ステップS10)。次に、制御部20のオブジェクトデータ生成部22は、画像データ3の画像に含まれる複数のオブジェクトを抽出し、オブジェクトデータ32を生成する(ステップS11)。ステップS11の処理は、後述する図13におけるステップS20~S31の処理であり、後で詳述する。
 次に、制御部20の画面データ生成部23は、ステップS11で生成されたオブジェクトデータ32および部品定義データ44に基づいて、監視画面のデータである監視画面データ33を生成する(ステップS12)。制御部20は、割付データ36と監視画面データ33とを含む割付済監視画面データ35を生成する(ステップS13)。ステップS13の処理は、図14に示すステップS40~S44の処理であり、後で詳述する。
 図13は、図12に示すステップS11の処理を示すフローチャートである。図13に示すように、オブジェクトデータ生成部22は、記憶部30からテンプレートデータ31を読み出す(ステップS20)。次に、オブジェクトデータ生成部22は、テンプレートデータ31を用いて、画像データ3に含まれる画像オブジェクトの識別処理を行う(ステップS21)。
 オブジェクトデータ生成部22は、識別した画像オブジェクトがシンボル部品か否かを判定し(ステップS22)、画像オブジェクトがシンボル部品であると判定した場合(ステップS22:Yes)、シンボル部品のデータを生成する(ステップS23)。オブジェクトデータ生成部22は、画像オブジェクトがシンボル部品でないと判定した場合(ステップS22:No)、線部品のデータを生成する(ステップS24)。
 オブジェクトデータ生成部22は、ステップS23またはステップS24の処理が終了した場合、画像データ3に含まれるすべての画像オブジェクトの識別処理を終了したか否かを判定する(ステップS25)。オブジェクトデータ生成部22は、すべての画像オブジェクトの識別処理を終了していないと判定した場合(ステップS25:No)、処理をステップS21へ移行する。
 オブジェクトデータ生成部22は、すべての画像オブジェクトの識別処理を終了したと判定した場合(ステップS25:Yes)、ステップS23で生成したシンボル部品のデータとステップS24で生成した線部品のデータを含む画像オブジェクトデータ41を生成する(ステップS26)。
 次に、オブジェクトデータ生成部22は、画像データ3に含まれる文字オブジェクトの識別処理を行い(ステップS27)、識別した文字オブジェクトのデータを生成する(ステップS28)。オブジェクトデータ生成部22は、画像データ3に含まれるすべての文字オブジェクトの識別処理を終了したか否かを判定する(ステップS29)。
 オブジェクトデータ生成部22はすべての文字オブジェクトの識別処理を終了していないと判定した場合(ステップS29:No)、処理をステップS27へ移行する。オブジェクトデータ生成部22は、すべての文字オブジェクトの識別処理を終了したと判定した場合(ステップS29:Yes)、ステップS28で生成したすべての文字オブジェクトのデータを含む文字オブジェクトデータ42を生成する(ステップS30)。
 次に、オブジェクトデータ生成部22は、ステップS26で生成した画像オブジェクトデータ41とステップS30で生成した文字オブジェクトデータ42とに基づいて、機器データ43を生成し(ステップS31)、図13に示す処理を終了する。
 図14は、図12に示すステップS13の処理を示すフローチャートである。図14に示すように、制御部20の割付処理部24は、ステップS11において機器データ43が生成されたか否かを判定する(ステップS40)。
 割付処理部24は、機器データ43が生成されたと判定した場合(ステップS40:Yes)、記憶部30から項目定義データ45を読み出す(ステップS41)。そして、割付処理部24は、項目定義データ45とオブジェクトデータ32とに基づいて、割付データ36の生成処理を行う(ステップS42)。
 次に、割付処理部24は、割付データ36が生成されたか否かを判定する(ステップS43)。項目定義データ45に含まれる少なくとも一つの「機器名称」の文字列が、機器データ43に含まれる機器名称の文字列と一致する場合に、割付データ36は生成される。一方、項目定義データ45に含まれるいずれの「機器名称」の文字列も、機器データ43に含まれる機器名称の文字列と一致しない場合には、割付データ36は生成されない。
 割付処理部24は、割付データ36が生成されたと判定した場合(ステップS43:Yes)、割付データ36と監視画面データ33とを含む割付済監視画面データ35を生成する(ステップS44)。
 ステップS40において、機器データが生成されていないと判定された場合(ステップS40:No)、ステップS43において、割付データ36が生成されていないと判定された場合(ステップS43:No)、またはステップS44の処理を終了した場合、制御部20は、図14に示す処理を終了する。
 図15は、実施の形態1にかかる監視画面データ生成装置1のハードウェア構成の一例を示す図である。図15に示すように、監視画面データ生成装置1は、プロセッサ101と、メモリ102と、HDD103と、インタフェース回路104とを備えるコンピュータである。プロセッサ101、メモリ102、HDD103、およびインタフェース回路104は、バス105によって互いにデータの送受信が可能である。通信部10は、インタフェース回路104によって実現される。記憶部30は、メモリ102およびHDD103によって実現される。
 プロセッサ101は、HDD103に記憶されたOSおよび処理プログラムを読み出して実行することによって、画像データ取得部21、オブジェクトデータ生成部22、画面データ生成部23、割付処理部24、データ出力部25、表示制御部26、および入力処理部27の機能を実行する。なお、プロセッサ101は、磁気ディスク、USB(Universal Serial Bus)メモリ、光ディスク、コンパクトディスク、およびDVD(Digital Versatile Disc)のうち一つ以上の記憶媒体から不図示のインタフェースを介してOSおよび処理プログラムを読み出しHDD103に記憶して実行することもできる。
 プロセッサ101は、処理回路の一例であり、CPU、DSP(Digital Signal Processer)、およびシステムLSI(Large Scale Integration)のうち一つ以上を含む。メモリ102は、プロセッサ101の作業領域として用いられる記憶領域であり、RAM(Random Access Memory)に代表される不揮発性または揮発性の半導体メモリである。
 以上のように、実施の形態1にかかる監視画面データ生成装置1は、画像データ取得部21と、オブジェクトデータ生成部22と、画面データ生成部23と、割付処理部24とを備える。画像データ取得部21は、画像のデータである画像データ3を取得する。オブジェクトデータ生成部22は、画像データ取得部21によって取得された画像データ3の画像に含まれる複数のオブジェクト70,71,72を識別し、識別した複数のオブジェクト70,71,72の情報を含むオブジェクトデータ32を生成する。画面データ生成部23は、オブジェクトデータ生成部22によって生成されたオブジェクトデータ32に基づいて、画像オブジェクト70,71および文字オブジェクト73を含む監視画面のデータである監視画面データ33を生成する。割付処理部24は、状態遷移を定義する定義データ34とオブジェクトデータ32とに基づいて、監視画面データ33の監視画面に含まれる画像オブジェクト70に状態遷移を定義するデータの一例である割付データ36が割り付けられる。
 したがって、画像オブジェクト70に割付データ36を手作業で割り付ける場合に比べ、画像オブジェクト61aに割付データ36を割り付けた割付済監視画面データ35を容易に生成することができる。また、スクリーンショットによる画像データまたはスキャナで取り込んだ画像データから監視画面データ33が生成できることから、データ互換性のない他社の監視画面画像データを元に監視画面データ33を生成することができる。
 また、オブジェクトデータ生成部22は、第1の識別部の一例であるテンプレートマッチング処理部51と、第2の識別部の一例である文字識別処理部52と、機器データ生成部53とを備える。テンプレートマッチング処理部51は、複数のオブジェクト70,71,72のうちの画像オブジェクト70,71を識別し、識別した画像オブジェクト70,71の座標を含む画像オブジェクトデータ41を生成する。文字識別処理部52は、複数のオブジェクト70,71,72のうちの文字のオブジェクトである文字オブジェクト72を識別し、識別した文字オブジェクト72の座標を含む文字オブジェクトデータ42を生成する。機器データ生成部53は、画像オブジェクト70の座標と文字オブジェクト72の座標とに基づいて、画像オブジェクト70と文字オブジェクト72とが関連付けられた機器データ43を生成する。割付処理部24は、定義データ34に含まれる機器名称と機器データ43に含まれる文字オブジェクト72との比較結果に基づき、監視画面に含まれる画像オブジェクト70に状態遷移を定義するデータである割付データ36を割り付ける。このように、画像オブジェクト70と文字オブジェクト72とを関連付けた機器データ43を生成することで、状態遷移を定義するデータを容易に画像オブジェクト70に割り付けることができる。
実施の形態2.
 実施の形態2では、画像データ3の画像オブジェクトと異なるサイズでオブジェクトを監視画面データ33に含ませる拡縮処理が追加される点で、実施の形態1と異なる。以下においては、実施の形態1と同様の機能を有する構成要素については同一符号を付して説明を省略し、実施の形態1の監視画面データ生成装置1と異なる点を中心に説明する。図16は、実施の形態2にかかる監視画面データ生成装置1Aの構成例を示す図である。
 図16に示すように、実施の形態2にかかる監視画面データ生成装置1Aの制御部20Aは、制御部20の構成に加え、さらに、拡縮処理部28を備える。また、監視画面データ生成装置1Aの記憶部30Aは、記憶部30において記憶されるデータに加え、修正オブジェクトデータ37を記憶することができる。
 拡縮処理部28は、記憶部30からオブジェクトデータ32を読み出し、かかるオブジェクトデータ32に基づいて、拡縮率設定画面データを生成し、表示制御部26へ出力する。表示制御部26は、拡縮率設定画面データに基づいて、拡縮率設定画面を表示装置4に表示する。
 図17は、表示装置4に表示される拡縮率設定画面62の一例を示す図である。図17に示す拡縮率設定画面62には、画像オブジェクトであるシンボル部品毎に入力枠63a~63fが配置され、画像オブジェクトである線部品毎に入力枠64a~64eが配置され、文字オブジェクトである文字列毎に入力枠65a~65fが配置されている。
 入力枠63a~63f,64a~64e,65a~65fに設定されている倍率は、画像データ3の画像に含まれるオブジェクトの拡縮率である。各入力枠63a~63f,64a~64e,65a~65fに設定されている倍率は、入力装置5への操作で変更することができる。
 入力装置5への操作で拡縮率設定画面62に設けられた設定ボタン67が操作されると、拡縮処理部28は、入力枠63a~63f,64a~64e,65a~65fの倍率のうち、入力装置5への操作によって変更された倍率をオブジェクトデータ32のオブジェクトのサイズに掛けて求めた修正オブジェクトデータ37を生成する。拡縮処理部28は、生成した修正オブジェクトデータ37を記憶部30Aに記憶する。
 ここで、シンボル種別「電磁弁1」である画像オブジェクト80aのサイズが図7に示すように「10×10」である場合、拡縮処理部28は、入力枠63aの倍率が「80%」に変更されると、画像オブジェクト80aのサイズを「8×8」にする。
 また、入力装置5への操作で拡縮率設定画面62に設けられた取消ボタン68が操作されると、拡縮処理部28は、記憶部30Aに記憶された修正オブジェクトデータ37を削除する。
 また、図17に示す拡縮率設定画面62には、すべてのオブジェクトの倍率を一括して設定するための入力枠66が配置される。入力枠66に設定されている倍率は、入力枠63a~63f,64a~64e,65a~65fに設定される倍率と同様に、入力装置5への操作で変更することができる。
 入力装置5への操作で拡縮率設定画面62に設けられた設定ボタン67が操作されると、拡縮処理部28は、オブジェクトデータ32に含まれるすべてのオブジェクトに入力枠66に設定されている倍率を掛けて求めた修正オブジェクトデータ37を生成する。拡縮処理部28は、生成した修正オブジェクトデータ37を記憶部30Aに記憶する。
 なお、上述した例では、入力枠63a~63f,64a~64e,65a~65f,66において「倍率」を指定する例を説明したが、入力枠63a~63f,64a~64e,65a~65f,66において「サイズ」を指定する構成であってもよい。
 制御部20Aの処理を、フローチャートを用いて説明する。図18は、実施の形態2にかかる制御部20Aの処理の一例を示すフローチャートである。
 図18に示すように、制御部20Aの画像データ取得部21は、外部から画像データ3を取得する(ステップS50)。次に、制御部20Aのオブジェクトデータ生成部22は、画像データ3の画像に含まれる複数のオブジェクトを抽出し、オブジェクトデータ32を生成する(ステップS51)。ステップS51の処理は、上述した図13におけるステップS20~S30の処理であり、図13におけるステップS31の処理は、後述するステップS56の処理で行われる。
 次に、制御部20Aの拡縮処理部28は、オブジェクトデータ32に基づいて、拡縮率設定画面データを生成し、表示制御部26は、拡縮率設定画面データに基づいて、拡縮率設定画面62を表示装置4に表示する(ステップS52)。
 次に、拡縮処理部28は、拡縮設定の要求があるか否かを判定する(ステップS53)。拡縮処理部28は、上述した設定ボタン67が操作された場合に、拡縮設定の要求があると判定する。拡縮処理部28は、拡縮設定の要求があると判定した場合(ステップS53:Yes)、拡縮率設定画面62の入力枠に設定された倍率をオブジェクトデータ32のオブジェクトのサイズに掛けて求めた修正オブジェクトデータ37を生成する(ステップS54)。
 次に、制御部20Aの画面データ生成部23は、ステップS54で生成された修正オブジェクトデータ37および部品定義データ44に基づいて、監視画面のデータである監視画面データ33を生成する(ステップS55)。制御部20Aは、ステップS30と同様の処理により、修正オブジェクトデータ37に基づいて、機器データ43を生成する(ステップS56)。制御部20Aは、ステップS13と同様の処理により、割付データ36と監視画面データ33とを含む割付済監視画面データ35を生成する(ステップS57)。なお、制御部20Aは、ステップS56の処理の前に、ステップS55の処理を行うこともできる。
 また、割付処理部24は、画像オブジェクトのサイズによって、画像オブジェクトに割り付ける振る舞いの種類および数を変更することもできる。この場合、項目定義データ45は、機器名称、振る舞い、信号名称、および信号コードがサイズ種別毎に関連付けられたデータである。サイズ種別は、複数段階のサイズ範囲を示す。サイズ範囲は、例えば、「6×6」以上「8×8」未満といった範囲である。このように、画像オブジェクトのサイズ毎に割り付ける振る舞いの種類および数を変更することで、サイズが小さくなって画像オブジェクトの振る舞いを視認し難くなる場合であっても、視認しやすい振る舞いを割り付けることができる。
 また、上述した例では、拡縮処理部28は、画面データ生成部23が監視画面データ33を生成する前に、修正オブジェクトデータ37を生成するが、画面データ生成部23が監視画面データ33を生成した後に、修正オブジェクトデータ37を生成することもできる。この場合、拡縮処理部28は、オブジェクトデータ32に基づいて生成された監視画面データ33のオブジェクトへの操作に基づいてオブジェクトの拡縮を変更し修正オブジェクトデータ37を生成することができる。
 なお、実施の形態2にかかる監視画面データ生成装置1Aのハードウェア構成例は、図15に示す監視画面データ生成装置1と同じである。プロセッサ101は、記憶部30Aとして機能するメモリ102に記憶されたプログラムを読み出して実行することによって、上述した制御部20の機能に加え、拡縮処理部28の機能を実行することができる。
 以上のように、実施の形態2にかかる監視画面データ生成装置1Aは、サイズ変更部の一例である拡縮処理部28を備える。拡縮処理部28は、オブジェクトデータ32に含まれるオブジェクト70a~70f,71a~71e,72a~72f(図4参照)の一部または全部のサイズを変更する。画面データ生成部23は、拡縮処理部28によってサイズが変更されたオブジェクト70a~70f,71a~71e,72a~72fのデータを含む修正オブジェクトデータ37に基づいて、監視画面データ33を生成する。これにより、オブジェクト70a~70f,71a~71e,72a~72fのうち一部のオブジェクトのサイズを変更することで一部のオブジェクトを強調することができる。また、複数の画像データ3から得られるオブジェクトデータを組み合わせてオブジェクト70a~70f,71a~71e,72a~72fが重ならないように一つの監視画面を生成することができる。したがって、より柔軟に視認性の高い監視画面データ33を生成することができる。
実施の形態3.
 実施の形態1,2では、項目定義データ45に基づいて割付データ36を作成したが、実施の形態3では、項目テンプレートデータに基づいて割付データを作成する点で、実施の形態1,2と異なる。以下においては、実施の形態1と同様の機能を有する構成要素については同一符号を付して説明を省略し、実施の形態1の監視画面データ生成装置1と異なる点を中心に説明するが、実施の形態2の監視画面データ生成装置1Aへ適用することもできる。
 図19は、実施の形態3にかかる監視画面データ生成装置1Bの構成例を示す図である。図19に示すように、実施の形態3にかかる監視画面データ生成装置1Bの制御部20Bは、割付処理部24に代えて、割付処理部24Bを備える。また、監視画面データ生成装置1Bの記憶部30Bは、記憶部30に記憶されるデータに加え、さらに、項目テンプレートデータ38と、信号定義データ46とを記憶する。
 項目テンプレートデータ38は、シンボル種別と信号名称と振る舞いとが関連付けられたデータである。図20は、項目テンプレートデータ38の一例を示す図である。図20に示す項目テンプレートデータ38では、シンボル種別「電磁弁」に対して信号名称「入」と「振る舞い1」とが関連付けられており、シンボル種別「電磁弁」に対して信号名称「故障」と「振る舞い2」とが関連付けられている。
 また、項目テンプレートデータ38において、シンボル種別「ポンプ」に対して信号名称「入」と「振る舞い3」とが関連付けられており、シンボル種別「ポンプ」に対して信号名称「故障」と「振る舞い4」とが関連付けられている。
 信号名称「入」は、機器が動作しているか停止しているかを示す信号を示し、信号名称「入」に関連付けられている「振る舞い1」および「振る舞い3」は、信号の状態に応じたシンボルの振る舞いを示すデータである。また、信号名称「故障」は、機器の故障を示す信号を示し、信号名称「故障」に関連付けられている「振る舞い2」および「振る舞い4」は、機器が故障した場合のシンボルの振る舞いを示すデータである。
 信号定義データ46は、機器名称、信号名称、および信号コードが互いに関連付けられたデータである。かかる信号定義データ46は、入力装置5を介して記憶部30Bに記憶される。なお、制御部20Bは、外部装置で生成された信号定義データ46がネットワーク2を介して通信部10で受信される場合、通信部10で受信された信号定義データ46を記憶部30Bに記憶することができる。
 図21は、信号定義データ46の一例を示す図である。図21に示す信号定義データ46では、機器名称「第1送水管弁」に対して信号名称「入」と信号コード「D11」とが関連付けられており、機器名称「第1送水管弁」に対して信号名称「故障」と信号コード「D12」とが関連付けられている。同様に、機器名称「第2送水管弁」、「第1送水ポンプ」、および「第2送水ポンプ」に対しても、信号名称と信号コードとが関連付けられている。
 割付処理部24Bは、項目テンプレートデータ38と、信号定義データ46と、オブジェクトデータ32に基づいて、監視画面に含まれる画像オブジェクトに状態遷移を定義するデータである割付データ36Bを生成する。具体的には、割付処理部24Bは、機器データ43と、信号定義データ46とに基づいて、機器データ43に含まれる各機器名称に対して信号名称、および信号コードを設定した仮割付データを生成する。
 具体的には、割付処理部24Bは、信号定義データ46に含まれるシンボル種別と機器データ43に含まれるシンボル種別とを比較する。そして、割付処理部24Bは、機器データ43において、信号定義データ46のシンボル種別と一致するシンボル種別に関連付けられた機器名称を判定する。例えば、図20に示す信号定義データ46に含まれるシンボル種別「電磁弁」は、図7に示す機器データ43に含まれるシンボル種別「電磁弁1」,「電磁弁2」とシンボル種別が一致し、シンボル種別「電磁弁1」,「電磁弁2」は、機器名称「第1送水弁管」,「第2送水弁管」に関連付けられている。
 割付処理部24Bは、シンボル種別が一致すると判定した機器名称に対し、信号定義データ46から機器名称と一致するシンボル種別に関連付けられた信号名称、および信号コードを抽出し、抽出した信号名称および信号コードを機器名称に関連付けて仮割付データを生成する。仮割付データは、例えば、「第1送水管弁」に信号名称「入」および信号コード「D11」が関連付けられたデータを含み、「第1送水管弁」に信号名称「故障」および信号コード「D12」が関連付けられたデータを含む。
 さらに、割付処理部24Bは、項目テンプレートデータ38に基づいて、仮割付データに含まれる機器名称および信号種別の組み合わせに対応する振る舞いを仮割付データに設定して割付データ36Bを生成する。
 図22は、割付データ36Bの一例を示す図である。図22に示すように、割付データ36Bでは、「電磁弁」である「第1送水管弁」および「第2送水管弁」において、信号名称「入」には、振る舞い「振る舞い1」が設定され、信号名称「故障」には、振る舞い「振る舞い2」が設定される。また、「ポンプ」である「第1送水ポンプ」および「第2送水ポンプ」において、信号名称「入」には、振る舞い「振る舞い3」が設定され、信号名称「故障」には、振る舞い「振る舞い4」が設定される。
 なお、上述した項目テンプレートデータ38は、シンボル名称、信号名称、および振る舞いが互いに関連付けられたデータであるが、シンボル名称を関連付けていないデータであってもよい。図23は、項目テンプレートデータ38の他の例を示す図である。図23に示す項目テンプレートデータ38では、信号名称「入」に対して、振る舞い「振る舞い1」が設定され、信号名称「故障」に対して、振る舞い「振る舞い2」が設定されている。
 割付処理部24Bは、図23に示す項目テンプレートデータ38を用いる場合、シンボル名称にかかわらず、信号名称のみで振る舞いを割り付ける。したがって、割付データ36Bでは、「第1送水ポンプ」および「第2送水ポンプ」において、信号名称「入」には、振る舞い「振る舞い1」が設定され、信号名称「故障」には、振る舞い「振る舞い2」が設定される。なお、図23に示す項目テンプレートデータ38において、信号名称「故障」に振る舞い「振る舞い2」が設定されていなくてもよく、また、信号名称「流量」に振る舞い「振る舞い3」が設定されていてもよい。
 制御部20Bの処理を、フローチャートを用いて説明する。図24は、実施の形態3にかかる制御部20Bの処理の一例を示すフローチャートであり、図12に示すステップS13に対応する処理である。
 図24に示すように、制御部20Bの割付処理部24Bは、ステップS40の処理と同様に、機器データ43が生成されたか否かを判定する(ステップS60)。割付処理部24Bは、機器データ43が生成されたと判定した場合(ステップS60:Yes)、記憶部30Bから項目テンプレートデータ38と信号定義データ46を読み出す(ステップS61,S62)。
 割付処理部24Bは、項目テンプレートデータ38、信号定義データ46、およびオブジェクトデータ32に基づいて、割付データ36Bの生成処理を行う(ステップS63)。割付処理部24Bは、割付データ36Bと監視画面データ33とを含む割付済監視画面データ35を生成する(ステップS64)。
 なお、実施の形態3にかかる監視画面データ生成装置1Bのハードウェア構成例は、図5に示す監視画面データ生成装置1と同じである。プロセッサ101は、記憶部30Bとして機能するメモリ102に記憶されたプログラムを読み出して実行することによって、割付処理部24に代えて割付処理部24Bの機能を実行することができる。
 以上のように、実施の形態3にかかる監視画面データ生成装置1Bのオブジェクトデータ生成部22は、画像オブジェクト70を識別し、識別した画像オブジェクト70の種別を含む画像オブジェクトデータ41を生成する。割付処理部24Bは、信号定義データ46に含まれる画像オブジェクト70の種別と画像オブジェクトデータ41に含まれる画像オブジェクト70の種別との比較結果に基づき、監視画面に含まれる画像オブジェクト70に状態遷移を定義するデータである割付データ36Bを割り付ける。
 これにより、機器名称と振る舞いとを関連付けた項目定義データ45がない場合であっても、項目定義データ45よりも簡単な定義付けの項目テンプレートデータ38を用いて監視画面に含まれる画像オブジェクト70に状態遷移を定義するデータを割り付けることができる。したがって、監視画面毎に画像オブジェクトの振る舞いの定義を作り直す手間を省くことができ、割付済監視画面データ35を容易に生成することができる。また、図23に示す項目テンプレートデータ38を用いる場合、シンボル名称にかかわらず、信号名称のみで振る舞いを割り付けることができ、割付済監視画面データ35をさらに容易に生成することができる。
 また、割付処理部24Bは、項目定義データ45に基づいて振る舞いおよび信号コードを割り付けることができない画像オブジェクトに対して、項目テンプレートデータ38を用いて振る舞いおよび信号コードを割り当てることもできる。これにより、項目定義データ45に漏れがあった場合でも、画像オブジェクトに状態遷移データを割り付けることができる。
実施の形態4.
 実施の形態1~3では、画像データ3の画像に含まれるオブジェクトを選別せずに監視画面データ33を生成するが、実施の形態4では、オブジェクトの一部をマスクして監視画面データ33を生成する点で、実施の形態1~3と異なる。以下においては、実施の形態1と同様の機能を有する構成要素については同一符号を付して説明を省略し、実施の形態1の監視画面データ生成装置1と異なる点を中心に説明するが、実施の形態2,3の監視画面データ生成装置1A,1Bへ適用することもできる。
 図25に示すように、実施の形態4にかかる監視画面データ生成装置1Cの制御部20Cは、制御部20の構成に加え、さらに、マスク設定部29を備える。また、監視画面データ生成装置1Cの記憶部30Cは、記憶部30において記憶されるデータに加え、マスク後オブジェクトデータ39を記憶することができる。
 マスク設定部29は、記憶部30Cからオブジェクトデータ32を読み出し、かかるオブジェクトデータ32に基づいて、マスク設定画面データを生成し、表示制御部26へ出力する。表示制御部26は、マスク設定画面データに基づいて、マスク設定画面を表示装置4に表示する。
 図26は、表示装置4に表示されるマスク設定画面の一例を示す図である。図26に示すマスク設定画面69には、画像オブジェクトであるシンボル部品毎にチェックボックス73a~73fが配置され、画像オブジェクトである線部品毎にチェックボックス74a~74eが配置される。また、マスク設定画面69には、文字オブジェクトである文字列毎にチェックボックス75a~75fが配置されている。
 入力装置5への操作でマスク設定画面69に設けられた設定ボタン76が操作されると、マスク設定部29は、チェックボックス73a~73f,74a~74e,75a~75fのうち、入力装置5によるチェック操作が行われたチェックボックスに設定されたオブジェクトを除外したマスク後オブジェクトデータ39を生成する。マスク設定部29は、生成したマスク後オブジェクトデータ39を記憶部30Cに記憶する。
 図26に示すように、チェックボックス73e,73fにチェック操作が行われた後に設定ボタン76が操作された場合、マスク設定部29は、シンボル種別「右口ポンプ2」、および「数値ボタン2」に対応する画像オブジェクトにマスク設定を行う。これにより、シンボル種別「右口ポンプ2」、「数値ボタン2」に対応する画像オブジェクトをオブジェクトデータ32から除外されたマスク後オブジェクトデータ39が生成される。
 また、入力装置5への操作でマスク設定画面69に設けられた取消ボタン77が操作されると、マスク設定部29は、記憶部30Cに記憶されたマスク後オブジェクトデータ39を削除する。
 制御部20Cの処理を、フローチャートを用いて説明する。図27は、実施の形態4にかかる制御部20Cの処理の一例を示すフローチャートである。なお、図27に示すステップS70,S71,S76,S77の処理は、図18に示すステップS50,S51,S56,S57の処理と同様の処理であり、以下においては説明を省略する。
 図27に示すように、ステップS72において、制御部20Cのマスク設定部29は、オブジェクトデータ32に基づいて、マスク設定画面データを生成し、表示制御部26は、マスク設定画面データに基づいて、マスク設定画面を表示装置4に表示する。
 次に、マスク設定部29は、マスク設定の要求があるか否かを判定する(ステップS73)。マスク設定部29は、上述した設定ボタン76が操作された場合に、マスク設定の要求があると判定する。マスク設定部29は、マスク設定の要求があると判定した場合(ステップS73:Yes)、マスク設定されたオブジェクトを除外したマスク後オブジェクトデータ39を生成する(ステップS74)。
 次に、制御部20Cの画面データ生成部23は、ステップS74で生成されたマスク後オブジェクトデータ39および部品定義データ44に基づいて、監視画面のデータである監視画面データ33を生成する(ステップS75)。制御部20Cは、ステップS30と同様の処理により、マスク後オブジェクトデータ39に基づいて、機器データ43を生成する(ステップS76)。
 上述した例では、除外するオブジェクトを選択する例を説明したが、マスク設定部29は、選択したオブジェクト以外のオブジェクトを除外したマスク後オブジェクトデータ39を生成することもできる。また、上述した例では、チェックボックスへの操作に基づいて一部のオブジェクトを除外したマスク後オブジェクトデータ39を生成するが、チェックボックス以外で一部のオブジェクトを除外することもできる。マスク設定部29は、監視画面データ33を生成した後に、監視画面データ33の画像のうち選択されたオブジェクトを除外したマスク後オブジェクトデータ39を生成することもできる。
 なお、実施の形態4にかかる監視画面データ生成装置1Cのハードウェア構成例は、図15に示す監視画面データ生成装置1と同じである。プロセッサ101は、記憶部30Cとして機能するメモリ102に記憶されたプログラムを読み出して実行することによって、上述した制御部20の機能に加え、マスク設定部29の機能を実行することができる。
 以上のように、実施の形態4にかかる監視画面データ生成装置1Cは、データ変更部の一例であるマスク設定部29を備える。マスク設定部29は、オブジェクトデータ32から複数のオブジェクト70a~70f,71a~71e,72a~72f(図4参照)のうち一部のオブジェクトを除外したマスク後オブジェクトデータ39を生成する。画面データ生成部23は、マスク設定部29によって生成されたマスク後オブジェクトデータ39に基づいて、一部のオブジェクトを除外した監視画面データ33を生成する。これにより、不要なオブジェクトを除外した監視画面データ33を容易に生成することができる。
実施の形態5.
 実施の形態5では、複数の画像データ3の画像に含まれるオブジェクトを一つの監視画面に配置した監視画面データ33として生成する機能が追加される点で、実施の形態1~4と異なる。以下においては、実施の形態1と同様の機能を有する構成要素については同一符号を付して説明を省略し、実施の形態1の監視画面データ生成装置1と異なる点を中心に説明するが、実施の形態2~4の監視画面データ生成装置1A~1Cへ適用することもできる。
 図28は、実施の形態5にかかる監視画面データ生成装置1Dの構成例を示す図である。図28に示すように、実施の形態5にかかる監視画面データ生成装置1Dの制御部20Dは、制御部20の構成に加え、オブジェクトデータ合成部40を備える。また、監視画面データ生成装置1Dの記憶部30Dは、記憶部30に記憶されるデータに加え、さらに、合成オブジェクトデータ47を記憶することができる。
 ここで、制御部20Dの画像データ取得部21が、図29に示す画像を有する第1の画像データ3aと、図30に示す画像を有する第2の画像データ3bとを取得したとする。図29および図30は、画像データ取得部21によって取得される画像データの例を示す図である。また、図29に示す第1の画像データ3aは、図4に示す画像データ3と同じである。
 図30に示す第2の画像データ3bの画像には、シンボル部品である画像オブジェクト70g~70iと、線部品である画像オブジェクト71f~71hと、文字列である文字オブジェクト72g~72kとが含まれる。
 オブジェクトデータ生成部22は、第1の画像データ3aのオブジェクトデータと、第2の画像データ3bのオブジェクトデータとを含むオブジェクトデータ32を生成する。以下においては、第1の画像データ3aのオブジェクトデータをオブジェクトデータ32aと記載し、第2の画像データ3bのオブジェクトデータをオブジェクトデータ32bと記載する。
 オブジェクトデータ32aは、画像オブジェクトデータ41aと、文字オブジェクトデータ42aと、機器データ43aとを含む。画像オブジェクトデータ41aは、上述した画像オブジェクトデータ41と同じデータであり、文字オブジェクトデータ42aは、上述した文字オブジェクトデータ42と同じデータであり、機器データ43aは、上述した機器データ43と同じデータである。
 また、オブジェクトデータ32bは、画像オブジェクトデータ41bと、文字オブジェクトデータ42bと、機器データ43bとを含む。画像オブジェクトデータ41bは、画像オブジェクト70g~70i毎のレコードデータと、画像オブジェクト71f~71h毎のレコードデータを含む。画像オブジェクト70g~70i毎のレコードデータには、シンボル種別、座標、およびサイズを示すデータが含まれ、画像オブジェクト71f~71h毎のレコードデータには、線種別、座標、およびサイズ示すデータが含まれる。
 また、文字オブジェクトデータ42bは、文字オブジェクト72g~72k毎のレコードデータを含む。機器データ43bは、画像オブジェクト70g~70i毎のレコードデータを含む。
 オブジェクトデータ合成部40は、2つの画像データ3a,3bから生成されたオブジェクトデータ32aとオブジェクトデータ32bとの合成処理を行って合成オブジェクトデータ47を生成し、生成した合成オブジェクトデータ47を記憶部30Dに記憶する。
 図31および図32は、オブジェクトデータ32aとオブジェクトデータ32bの合成についての説明図である。オブジェクトデータ合成部40は、合成処理において、図31に示すように、文字オブジェクトデータ42aと文字オブジェクトデータ42bとを一つの文字オブジェクトデータ42cとして生成する。
 オブジェクトデータ合成部40は、文字オブジェクトデータ42aと文字オブジェクトデータ42bとで一致する文字列を検索し、検索して得られる文字列を基準として、一部の座標を相対的に変更して合成処理を行う。なお、オブジェクトデータ合成部40は、文字オブジェクトデータ42aと文字オブジェクトデータ42bとで一致する文字列が複数ある場合、複数の文字列のうち機器データ43aと機器データ43bとで共通する機器名称と一致する文字列を基準として合成処理を行う。
 図31に示す例では、文字オブジェクトデータ42aと文字オブジェクトデータ42bとは、機器名称「第1送水管弁」が互いに共通する。オブジェクトデータ合成部40は、文字オブジェクトデータ42aの文字列「第1送水管弁」の座標を基準として、文字オブジェクトデータ42bの文字列の座標を変更する。
 具体的には、オブジェクトデータ合成部40は、文字オブジェクトデータ42bの文字列「第1送水管弁」の座標を文字オブジェクトデータ42aの文字列「第1送水管弁」の座標にシフトする。また、オブジェクトデータ合成部40は、文字オブジェクトデータ42bの文字列「第1送水管弁」以外の文字列の座標も文字列「第1送水管弁」の座標と同じシフト量でシフトして文字オブジェクトデータ42bに含まれる各レコードデータの座標を変更する。図31に示す例では、シフト量は、「-190,0」である。
 そして、オブジェクトデータ合成部40は、座標を変更した文字オブジェクトデータ42bの文字列のうち文字オブジェクトデータ42aの文字列と重複する文字列を有するレコードデータを削除して、文字オブジェクトデータ42aと文字オブジェクトデータ42bとを合成する。これにより、図31に示す文字オブジェクトデータ42cが生成される。
 図32に示すように、オブジェクトデータ合成部40は、機器データ43aと機器データ43bとを一つの機器データ43cとして生成する合成処理を行う。かかる合成処理において、オブジェクトデータ合成部40は、機器データ43aと機器データ43bとで一致する機器名称を検索し、検索して得られる機器名称を基準として、合成処理を行う。なお機器データ43aと機器データ43bとで一致する機器名称が複数ある場合、一つの機器名称を基準として合成処理を行う。
 図32に示す例では、機器データ43aと機器データ43bとは、機器名称「第1送水管弁」が互いに共通する。オブジェクトデータ合成部40は、機器データ43aの機器名称「第1送水管弁」の座標を基準として、機器データ43bに含まれる各レコードデータの座標を変更する。
 具体的には、オブジェクトデータ合成部40は、機器データ43bの文字列「第1送水管弁」の座標を機器データ43aの機器名称「第1送水管弁」の座標にシフトする。また、オブジェクトデータ合成部40は、機器データ43bの機器名称「第1送水管弁」以外の文字列の座標も機器名称「第1送水管弁」の座標と同じシフト量でシフトして、機器データ43bに含まれる各レコードデータの座標を変更する。図32に示す例では、シフト量は、「-190,0」である。
 そして、オブジェクトデータ合成部40は、座標を変更した機器データ43bのレコードデータのうち機器データ43aの文字列と重複する文字列を有するレコードデータを削除して、機器データ43aと機器データ43bとを合成する。これにより、図32に示す機器データ43cが生成される。
 なお、上述した例では、オブジェクトデータ合成部40は、機器データ43a,43b間で一致する機器名称を基準として、合成処理を行うが、機器データ43a,43b間で一致する機器名称とシンボル種別の組み合わせを基準として、合成処理を行うこともできる。
 次に、オブジェクトデータ合成部40は、文字オブジェクトデータ42cおよび機器データ43cで規定されるオブジェクト70a~70i,71a~71h,72a~72kを一つの監視画面に表示できるように、各オブジェクトの座標およびサイズの補正処理を行って、合成オブジェクトデータ47を生成する。補正処理は、オブジェクト70a~70i,71a~71h,72a~72kの座標の領域を縮小およびシフトすることで行うことができる。オブジェクトデータ合成部40は、生成した合成オブジェクトデータ47を記憶部30Dに記憶する。合成オブジェクトデータ47には、文字オブジェクトデータ92と機器データ93とを含む。
 図33は、合成オブジェクトデータ47に含まれる文字オブジェクトデータ92の一例を示す図であり、図34は、合成オブジェクトデータ47に含まれる機器データ93の一例を示す図である。
 図33に示すように、文字オブジェクトデータ92における各文字オブジェクトの座標が一つの監視画面に表示できるように、文字オブジェクトデータ42cにおける各文字オブジェクトの座標から変更されている。図33に示す例では、各文字オブジェクトサイズは変更されていないが、オブジェクトデータ合成部40は、各文字オブジェクトのサイズを変更することもできる。
 具体的には、合成オブジェクトデータ47は、文字オブジェクトサイズを画像オブジェクトと同じ縮小率で変更することができる。これにより、画像データ3a,3bと同じバランスで各オブジェクトを縮小することができる。また、合成オブジェクトデータ47は、文字オブジェクトのサイズの縮小率を画像オブジェクトよりも小さくすることもできる。これにより、文字オブジェクトが小さくなりすぎないようにすることができる。また、合成オブジェクトデータ47は、文字オブジェクトのサイズが下限値よりも小さくならないように制限することもできる。
 また、図34に示すように、機器データ93における各シンボル種別の座標およびサイズが一つの監視画面に表示できるように、機器データ43cにおける各シンボル種別の座標およびサイズが変更されている。
 画面データ生成部23は、合成オブジェクトデータ47に基づいて、監視画面データ33を生成する。図35は、画面データ生成部23が合成オブジェクトデータ47に基づいて生成した監視画面データ33によって表示装置4に表示される監視画面7の一例を示す図である。図35に示すように、監視画面7は、図29に示す画像と図30に示す画像とを合成した画像を一つの画面として含む。
 また、割付処理部24は、状態遷移を定義する定義データ34と合成オブジェクトデータ47の機器データ93とに基づいて、割付済監視画面データ35を生成する。割付済監視画面データ35は、監視画面に含まれる画像オブジェクトに状態遷移を定義するデータである割付データ36と監視画面データ33とを含むデータである。
 制御部20Dの処理を、フローチャートを用いて説明する。図36は、実施の形態5にかかる制御部20Dの処理の一例を示すフローチャートであり、図12のステップS11とステップS12との間、図18のステップS51とステップSS52との間、または図27のステップS71とステップS72との間に行われる処理を示す。
 図36に示すように、ステップS81において、制御部20Dのオブジェクトデータ合成部40は、異なる複数の画像データから生成されたオブジェクトデータがあるか否かを判定する(ステップS81)。ステップS81において、オブジェクトデータ合成部40は、記憶部30Dに記憶されたオブジェクトデータ32に異なる複数の画像データから生成されたオブジェクトデータが含まれる場合に、異なる複数の画像データから生成されたオブジェクトデータがあると判定する。なお、異なる複数の画像データから生成されたオブジェクトデータか否かは、オブジェクトデータの一致度から判定される。
 オブジェクトデータ合成部40は、異なる複数の画像データから生成されたオブジェクトデータがあると判定された場合(ステップS81:Yes)、異なるオブジェクトデータ間で文字列または機器名称が一致するレコードデータがあるか否かを判定する(ステップS82)。ステップS82の処理において、オブジェクトデータ合成部40は、異なる画像データから得られる文字オブジェクトデータ間で一致する文字列があるか否かを判定する。また、オブジェクトデータ合成部40は、異なる画像データから得られる機器データ間で一致する機器名称があるか否かを判定する。
 異なるオブジェクトデータ間で文字列または機器名称が一致するレコードデータがあると判定した場合(ステップS82:Yes)、オブジェクトデータ合成部40は、文字列または機器名称が一致するレコードデータの一方の座標を基準として、他方のレコードデータを含むオブジェクトデータの座標を相対的に変更して、複数のオブジェクトデータを合成する(ステップS83)。
 ステップS83の処理において、オブジェクトデータ合成部40は、例えば、図31に示すように、複数の文字オブジェクトデータ42a,42bを合成して文字オブジェクトデータ42cを生成し、図32に示すように、複数の機器データ43a,43bを合成して機器データ43cを生成する。
 次に、オブジェクトデータ合成部40は、画面外の座標を有するレコードデータがあるか否かを判定する(ステップS84)。オブジェクトデータ合成部40は、画面外の座標を有するレコードデータがあると判定した場合(ステップS84:Yes)、全レコードデータの座標が一つの画面内に収まるようにレコードデータの座標およびサイズを補正する(ステップS85)。
 ステップS85の処理において、オブジェクトデータ合成部40は、例えば、図31に示す文字オブジェクトデータ42cを補正して図33に示す文字オブジェクトデータ92を生成し、図32に示す機器データ43cを補正して図34に示す機器データ93を生成することができる。
 ステップS85の処理が終了した場合、異なる複数の画像データから生成されたオブジェクトデータがないと判定された場合(ステップS81:No)、一致するレコードデータがないと判定された場合(ステップS82:No)、または、画面外の座標を有するレコードデータがないと判定された場合(ステップS84:No)、オブジェクトデータ合成部40は、図36に示す処理を終了する。
 なお、割付処理部24は、割付処理部24Bと同様に、画像オブジェクトのサイズによって割り付ける振る舞いを変更することもできる。これにより、サイズが小さくなって画像オブジェクトの振る舞いを視認し難くなる場合であっても、視認しやすい振る舞いを割り付けることができる。
 また、オブジェクトデータ合成部40は、オブジェクトのサイズが閾値以下にならない範囲で、合成オブジェクトデータ47を生成することができる。これにより、オブジェクトが小さすぎる監視画面データ33が生成されることを抑制することができる。
 また、実施の形態5にかかる監視画面データ生成装置1Dのハードウェア構成例は、図15に示す監視画面データ生成装置1と同じである。プロセッサ101は、記憶部30Dとして機能するメモリ102に記憶されたプログラムを読み出して実行することによって、上述した制御部20の機能に加え、オブジェクトデータ合成部40の機能を実行することができる。
 以上のように、実施の形態5にかかる監視画面データ生成装置1Dは、オブジェクトデータ合成部40を備える。オブジェクトデータ合成部40は、画像データ取得部21によって取得された複数の画像データから生成されたオブジェクトデータ32a,32bを合成する。画面データ生成部23は、オブジェクトデータ合成部40によって合成された合成オブジェクトデータ47に基づいて、一つの監視画面のデータである監視画面データ33を生成する。これにより、複数の画像データから容易に一つの監視画面のデータである監視画面データ33を生成することができる。
 以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
 1,1A~1D 監視画面データ生成装置、2 ネットワーク、4 表示装置、5 入力装置、10 通信部、20,20A~20D 制御部、21 画像データ取得部、22 オブジェクトデータ生成部、23 画面データ生成部、23B,30,30A~30D 記憶部、24,24B 割付処理部、25 データ出力部、26 表示制御部、27 入力処理部、28 拡縮処理部、29 マスク設定部、31 テンプレートデータ、32,32a,32b オブジェクトデータ、33 監視画面データ、34 定義データ、35 割付済監視画面データ、36,36B 割付データ、37 修正オブジェクトデータ、38 項目テンプレートデータ、39 マスク後オブジェクトデータ、40 オブジェクトデータ合成部、41,41a,41b 画像オブジェクトデータ、42,42a~42c 文字オブジェクトデータ、43,43a~43c 機器データ、44 部品定義データ、45 項目定義データ、46 信号定義データ、47 合成オブジェクトデータ、51 テンプレートマッチング処理部、52 文字識別処理部、53 機器データ生成部。

Claims (8)

  1.  画像のデータである画像データを取得する画像データ取得部と、
     前記画像データ取得部によって取得された前記画像データの前記画像に含まれる複数のオブジェクトを識別し、識別した前記複数のオブジェクトの情報を含むオブジェクトデータを生成するオブジェクトデータ生成部と、
     前記オブジェクトデータ生成部によって生成された前記オブジェクトデータに基づいて、前記複数のオブジェクトのうち画像のオブジェクトである画像オブジェクトを含む監視画面のデータである監視画面データを生成する画面データ生成部と、
     状態遷移を定義する定義データと前記オブジェクトデータとに基づいて、前記監視画面データの監視画面に含まれる前記画像オブジェクトに前記状態遷移を定義するデータを割り付ける割付処理部と、を備える
     ことを特徴とする監視画面データ生成装置。
  2.  前記定義データは、
     機器名称と前記状態遷移とが関連付けられたデータを含み、
     前記オブジェクトデータ生成部は、
     前記複数のオブジェクトのうち前記画像オブジェクトを識別し、識別した前記画像オブジェクトの座標を含む画像オブジェクトデータを生成する第1の識別部と、
     前記複数のオブジェクトのうち文字のオブジェクトである文字オブジェクトを識別し、識別した前記文字オブジェクトの座標および文字列を含む文字オブジェクトデータを生成する第2の識別部と、
     前記画像オブジェクトの座標と前記文字オブジェクトの座標とに基づいて、前記画像オブジェクトと前記文字オブジェクトとが関連付けられた機器データを生成する機器データ生成部と、を備え、
     前記割付処理部は、
     前記定義データに含まれる前記機器名称と前記機器データに含まれる前記文字列との比較結果に基づき、前記監視画面に含まれる前記画像オブジェクトに前記状態遷移を定義するデータを割り付ける
     ことを特徴とする請求項1に記載の監視画面データ生成装置。
  3.  前記定義データは、
     前記画像オブジェクトの種別と前記状態遷移とが関連付けられたデータを含み、
     前記オブジェクトデータ生成部は、
     前記画像オブジェクトを識別し、識別した前記画像オブジェクトの種別を含む画像オブジェクトデータを生成し、
     前記割付処理部は、
     前記定義データに含まれる前記画像オブジェクトの種別と前記画像オブジェクトデータに含まれる前記画像オブジェクトの種別との比較結果に基づき、前記監視画面に含まれる前記画像オブジェクトに前記状態遷移を定義するデータを割り付ける
     ことを特徴とする請求項1に記載の監視画面データ生成装置。
  4.  前記オブジェクトデータに含まれる前記オブジェクトのサイズを変更するサイズ変更部を備え、
     前記画面データ生成部は、
     前記サイズ変更部によってサイズが変更された前記オブジェクトのデータを含む前記オブジェクトデータに基づいて、前記監視画面データを生成する
     ことを特徴とする請求項1から3のいずれか一つに記載の監視画面データ生成装置。
  5.  前記オブジェクトデータから前記複数のオブジェクトの情報のうちの一部のオブジェクトの情報を除外したオブジェクトデータを生成するデータ変更部を備え、
     前記画面データ生成部は、
     前記データ変更部によって生成されたオブジェクトデータに基づいて、前記一部のオブジェクトの情報を除外した監視画面データを生成する
     ことを特徴とする請求項1から4のいずれか一つに記載の監視画面データ生成装置。
  6.  前記画像データ取得部によって取得された複数の画像データから生成された前記オブジェクトデータを合成するオブジェクトデータ合成部を備え、
     前記画面データ生成部は、
     前記オブジェクトデータ合成部によって合成されたオブジェクトデータに基づいて、一つの監視画面のデータである監視画面データを生成する
     ことを特徴とする請求項1から5のいずれか一つに記載の監視画面データ生成装置。
  7.  画像のデータである画像データを取得する画像データ取得ステップと、
     前記画像データ取得ステップで取得された前記画像データの前記画像に含まれる複数のオブジェクトを識別し、識別した前記複数のオブジェクトの情報を含むオブジェクトデータを生成するオブジェクトデータ生成ステップと、
     前記オブジェクトデータ生成ステップで生成された前記オブジェクトデータに基づいて、前記複数のオブジェクトのうち画像のオブジェクトである画像オブジェクトを含む監視画面のデータである監視画面データを生成する画面データ生成ステップと、
     状態遷移を定義する定義データと前記オブジェクトデータとに基づいて、前記監視画面に含まれる前記画像オブジェクトに前記状態遷移を定義するデータを割り付ける割当ステップと、を含む
     ことを特徴とする監視画面データ生成方法。
  8.  画像のデータである画像データを取得する画像データ取得ステップと、
     前記画像データ取得ステップで取得された前記画像データの前記画像に含まれる複数のオブジェクトを識別し、識別した前記複数のオブジェクトの情報を含むオブジェクトデータを生成するオブジェクトデータ生成ステップと、
     前記オブジェクトデータ生成ステップで生成された前記オブジェクトデータに基づいて、前記複数のオブジェクトのうち画像のオブジェクトである画像オブジェクトを含む監視画面のデータである監視画面データを生成する画面データ生成ステップと、
     状態遷移を定義する定義データと前記オブジェクトデータとに基づいて、前記監視画面に含まれる前記画像オブジェクトに前記状態遷移を定義するデータを割り付ける割当ステップと、をコンピュータに実行させる
     ことを特徴とする監視画面データ生成プログラム。
PCT/JP2017/011261 2017-03-21 2017-03-21 監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラム Ceased WO2018173126A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201780088386.8A CN110431500B (zh) 2017-03-21 2017-03-21 监视画面数据生成装置、监视画面数据生成方法、以及存储介质
DE112017007292.1T DE112017007292T5 (de) 2017-03-21 2017-03-21 Überwachungsbildschirmdaten-erzeugungsvorrichtung,, verfahren zur erzeugung von überwachungsbildschirmdaten und programm zur erzeugung von überwachungsbildschirmdaten
PCT/JP2017/011261 WO2018173126A1 (ja) 2017-03-21 2017-03-21 監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラム
US16/493,463 US11222226B2 (en) 2017-03-21 2017-03-21 Monitoring-screen-data generation device, monitoring-screen-data generation method, and recording medium
JP2019506451A JP6621962B2 (ja) 2017-03-21 2017-03-21 監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/011261 WO2018173126A1 (ja) 2017-03-21 2017-03-21 監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラム

Publications (1)

Publication Number Publication Date
WO2018173126A1 true WO2018173126A1 (ja) 2018-09-27

Family

ID=63584857

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/011261 Ceased WO2018173126A1 (ja) 2017-03-21 2017-03-21 監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラム

Country Status (5)

Country Link
US (1) US11222226B2 (ja)
JP (1) JP6621962B2 (ja)
CN (1) CN110431500B (ja)
DE (1) DE112017007292T5 (ja)
WO (1) WO2018173126A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023209952A1 (ja) * 2022-04-28 2023-11-02 ファナック株式会社 画面作成システム、及び画面作成方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011133A (ja) * 1996-06-20 1998-01-16 Hitachi Ltd プラント監視画面作成方法、プラント監視画面作成装置、プラント監視方法、プラント監視装置
JP2009009398A (ja) * 2007-06-28 2009-01-15 Yokogawa Electric Corp プラント運転支援装置
JP2014102566A (ja) * 2012-11-16 2014-06-05 Digital Electronics Corp プログラマブル表示器、制御プログラムおよび制御システム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63273914A (ja) 1987-05-06 1988-11-11 Mitsubishi Electric Corp プラント監視画面自動生成システム
JP3662594B2 (ja) * 1997-02-19 2005-06-22 三菱電機株式会社 パーソナルコンピュータ組込み型数値制御装置
US7787013B2 (en) * 2004-02-03 2010-08-31 Panasonic Corporation Monitor system and camera
JP4588364B2 (ja) 2004-06-03 2010-12-01 三菱電機株式会社 操作器画面生成装置
JP2008182456A (ja) * 2007-01-24 2008-08-07 Sony Corp 監視装置、検知設定方法および監視カメラシステム
JP2009109646A (ja) * 2007-10-29 2009-05-21 Sharp Corp 監視設定装置及びそれを用いた生産システム
JP4921338B2 (ja) * 2007-12-14 2012-04-25 株式会社日立製作所 プラント監視制御システム
JP2009175969A (ja) 2008-01-23 2009-08-06 Toshiba Mitsubishi-Electric Industrial System Corp 画面ソフトウェアの更新方法
JP5427107B2 (ja) * 2010-05-20 2014-02-26 株式会社日立製作所 監視診断装置および監視診断方法
JP5495235B2 (ja) * 2010-12-02 2014-05-21 株式会社日立製作所 監視対象者の行動を監視する装置及び方法
JP5557771B2 (ja) 2011-02-23 2014-07-23 株式会社日立製作所 プラント監視制御システム
JP5724066B2 (ja) * 2011-03-18 2015-05-27 パナソニックIpマネジメント株式会社 監視システム、監視装置及び監視装置のプログラム、端末装置及び端末装置のプログラム
US8682083B2 (en) * 2011-06-30 2014-03-25 American Express Travel Related Services Company, Inc. Method and system for webpage regression testing
JP5987299B2 (ja) * 2011-11-16 2016-09-07 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP2013125424A (ja) 2011-12-15 2013-06-24 Mitsubishi Electric Corp グラフィック画面用シンボル生成装置
US20140218385A1 (en) * 2012-09-10 2014-08-07 Applitools Ltd. System and method for visual segmentation of application screenshots
US20140189576A1 (en) * 2012-09-10 2014-07-03 Applitools Ltd. System and method for visual matching of application screenshots
US9336127B2 (en) * 2013-02-20 2016-05-10 Kony, Inc. Exposing method related data calls during testing in an event driven, multichannel architecture
US9589597B2 (en) * 2013-07-19 2017-03-07 Google Technology Holdings LLC Small-screen movie-watching using a viewport
JP6231362B2 (ja) * 2013-11-25 2017-11-15 アズビル株式会社 プラント監視サーバーおよびプラント監視方法
US10043236B2 (en) * 2014-05-20 2018-08-07 Olympus Corporation Display device and display method
WO2016038913A1 (ja) * 2014-09-10 2016-03-17 オリンパス株式会社 撮像装置、及び撮像装置の制御方法、及び撮像システム
US9558367B2 (en) * 2015-02-18 2017-01-31 Yahoo!, Inc. Virtualization input component
JP6835536B2 (ja) * 2016-03-09 2021-02-24 株式会社リコー 画像処理方法、表示装置および点検システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011133A (ja) * 1996-06-20 1998-01-16 Hitachi Ltd プラント監視画面作成方法、プラント監視画面作成装置、プラント監視方法、プラント監視装置
JP2009009398A (ja) * 2007-06-28 2009-01-15 Yokogawa Electric Corp プラント運転支援装置
JP2014102566A (ja) * 2012-11-16 2014-06-05 Digital Electronics Corp プログラマブル表示器、制御プログラムおよび制御システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023209952A1 (ja) * 2022-04-28 2023-11-02 ファナック株式会社 画面作成システム、及び画面作成方法
JPWO2023209952A1 (ja) * 2022-04-28 2023-11-02
JP7747882B2 (ja) 2022-04-28 2025-10-01 ファナック株式会社 画面作成システム、及び画面作成方法

Also Published As

Publication number Publication date
CN110431500B (zh) 2022-07-15
US20200134353A1 (en) 2020-04-30
DE112017007292T5 (de) 2020-01-02
CN110431500A (zh) 2019-11-08
JPWO2018173126A1 (ja) 2019-06-27
US11222226B2 (en) 2022-01-11
JP6621962B2 (ja) 2019-12-18

Similar Documents

Publication Publication Date Title
US8390534B2 (en) Method and device for generating tracking configurations for augmented reality applications
US7054793B2 (en) Device and method for generating a virtual model of an installation
CN101964062A (zh) 基于用户界面的图像搜索方法
JP2015176272A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP6621962B2 (ja) 監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラム
US20200272850A1 (en) Information display method, information display system, and storage medium
JP7058558B2 (ja) 監視画面作成装置および監視画面作成方法
JP5557771B2 (ja) プラント監視制御システム
JP2011039786A (ja) ソフトウェアテスト支援装置、ソフトウェアテスト支援方法、及びプログラム
US11915356B2 (en) Semi-automatic 3D scene optimization with user-provided constraints
US11580679B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2008197721A (ja) プラント監視画面作成装置
JP2010049489A (ja) デバッグ支援装置およびデバッグ支援プログラム
JP4977681B2 (ja) データパターン/テストデータ生成・蓄積方法及びシステム
EP3876133A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP4914260B2 (ja) テンプレートマッチング装置及び方法
WO2025177829A1 (ja) 作業認識装置、作業認識方法およびプログラム
JP7334617B2 (ja) プログラム実行装置、プログラム実行方法およびプログラム
JP2019219726A (ja) 情報処理装置、情報処理装置の制御方法、及び、プログラム
US20190065914A1 (en) Image processing device, setting support method, and non-transitory computer-readable media
JP7111309B2 (ja) 情報処理装置、学習装置、認識装置、静止画の生産方法、およびプログラム
JP2020004055A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2016128946A (ja) 画像処理装置
JP2025075781A (ja) 管理装置、表示システム、表示方法及びプログラム
JP2024176815A (ja) 情報処理システム、情報処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17901543

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019506451

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 17901543

Country of ref document: EP

Kind code of ref document: A1