[go: up one dir, main page]

JP2024051079A - Navigation system, information processing method, and program - Google Patents

Navigation system, information processing method, and program Download PDF

Info

Publication number
JP2024051079A
JP2024051079A JP2024027411A JP2024027411A JP2024051079A JP 2024051079 A JP2024051079 A JP 2024051079A JP 2024027411 A JP2024027411 A JP 2024027411A JP 2024027411 A JP2024027411 A JP 2024027411A JP 2024051079 A JP2024051079 A JP 2024051079A
Authority
JP
Japan
Prior art keywords
worker
navigation system
work
information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2024027411A
Other languages
Japanese (ja)
Other versions
JP7722489B2 (en
Inventor
裕 柏倉
Yutaka Kashiwakura
吉則 白崎
Yoshinori Shirasaki
純 夛田
Jun Tada
健二 照井
Kenji Terui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Publication of JP2024051079A publication Critical patent/JP2024051079A/en
Priority to JP2025127527A priority Critical patent/JP2025142337A/en
Application granted granted Critical
Publication of JP7722489B2 publication Critical patent/JP7722489B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To present information favorable in producing a device to an assembly worker.SOLUTION: A navigation system (production navigation system 10) includes: a display information generation unit 72 functioning as a display control unit, an analysis control unit, and an output unit; and a storage unit (accumulation unit 73). The display control unit is means for controlling a region to display information for assisting a worker, the region corresponding to a plurality of placement sections (part placement sections 21) where the worker places articles to be picked up. The analysis control unit is means for analyzing a motion of the worker on the basis of video including the worker captured by an imaging unit. The storage unit is means for storing work results based on a result analyzed by the analysis control unit. The output unit is means for outputting information including work time on the basis of the work results stored in the storage unit.SELECTED DRAWING: Figure 16

Description

本発明は、ナビゲーションシステム、情報処理方法、及び、プログラムに関する。 The present invention relates to a navigation system, an information processing method , and a program.

様々な装置を生産する工場では、近年、以下のような傾向になりつつある。
・一人当たりの取り扱い部品点数が多い。
・短期間で次々と新製品が立ち上がる。
・生産ラインが製品毎に頻繁に変更される。
・派遣社員による生産体制が日常化している。
このような傾向は、多品種の装置を少量生産する工場ほど、顕著になっている。
しかしながら、このような傾向が進むにつれて、組立漏れや組立誤り等が発生する可能性が高くなってきている。そのため、工場では、組立漏れや組立誤り、作業漏れ等を防止する仕組みの実現が要望されている。
In recent years, the following trends have been observed in factories that manufacture various types of equipment.
- The number of parts handled per person is large.
-New products are launched one after another in a short period of time.
・Production lines are frequently changed for each product.
-Production using temporary workers has become commonplace.
This tendency is more pronounced in factories that produce a wide variety of equipment in small quantities.
However, as this trend continues, the possibility of assembly omissions, assembly errors, etc. is increasing. Therefore, there is a demand in factories to realize a mechanism to prevent assembly omissions, assembly errors, work omissions, etc.

組立漏れを防止する仕組みとしては、部品のキット作業を行う仕組みがある。部品のキット作業とは、部品配膳者が部品の保管倉庫から部品別に置き場所の決まった専用のキット箱に部品を並べることで、部品を漏れなく組立作業者に供給する作業である。部品の保管倉庫は、採取口に設けられたLEDを点灯させることで、採取する部品の場所を作業者に知らせる構成になっている。この仕組みでは、組立作業者は、組立完了後にキット箱内に部品が残っていないことを確認することで、組立漏れを防止することができる。 One mechanism for preventing missed parts in an assembly is the parts kitting system. In parts kitting, a parts distributor arranges parts from a parts storage warehouse into dedicated kit boxes with designated storage locations for each part, ensuring that all parts are supplied to assembly workers without missing any. The parts storage warehouse is designed to inform workers of the location of the parts to be picked by lighting an LED installed at the pick-up port. With this system, assembly workers can prevent missed parts by checking that no parts remain in the kit box after completing assembly.

そのキット作業に関連する装置としては、例えば、特許文献1に記載された装置がある。特許文献1に記載された装置は、センサを備える作業台の近傍に部品を搬送し、部品の取り出しをセンサで検知したら、次の部品を作業台の近傍に移動させることで、作業性を向上させている(例えば、特許文献1参照)。 One example of a device related to kit work is the device described in Patent Document 1. The device described in Patent Document 1 improves workability by transporting parts to the vicinity of a work table equipped with a sensor, and when the sensor detects the removal of a part, moving the next part to the vicinity of the work table (see Patent Document 1, for example).

また、組立誤りを防止する仕組みとしては、組立作業者が組立作業を習熟までは組立方法等を指示する作業指示書を組立作業者の周囲に配置し、組立作業者が作業指示書を確認しながら組み立てを行う仕組みがある。 As a mechanism for preventing assembly errors, there is a system in which work instructions instructing assembly methods are placed around the assembly worker until the worker becomes proficient at the assembly work, and the assembly worker assembles while checking the work instructions.

また、作業漏れを防止する仕組みとしては、作業した実績に応じてチェックシートと呼ばれる作業項目一覧リストに作業者毎に作業履歴を記入したり捺印やサインを行ったりして、作業履歴を残す仕組みがある。 In addition, one mechanism for preventing work from being overlooked is to have each worker fill out a list of work items called a checklist based on the work they have performed, and then stamp or sign the list to keep a record of the work.

特開平10-29139号公報Japanese Patent Application Laid-Open No. 10-29139

しかしながら、前記した従来の組立漏れを防止する仕組みは、部品配膳者が必要となるため、人員が増加してしまう、という課題があった。
また、部品の保管倉庫は、採取口に設けられたLEDを点灯させることで、採取する部品の場所を作業者に知らせる構成になっている。しかしながら、部品の保管倉庫は、作業場所の環境によってはLEDの点灯状態が分かり難い構造になっており、また、LEDを点灯させるだけでは、いくつの部品を採取し、その部品をどこにどのように取り付ければよいのか等の情報を作業者に知らせることができない、という課題があった。
さらに、従来の組立漏れを防止する仕組みは、新製品立ち上げにおいて、使用する順番に部品を並べる準備工数や、組立漏れを防止するために使用するキット箱作成に工数が非常に多くかかる、という課題があった。
その上、従来の組立漏れを防止する仕組みは、立ち上げ期間中において、部品変更等の設計変更が多く発生するため、その都度キット箱を作り直すことになり、製造準備完了までに時間がかかる、という課題があった。
However, the above-mentioned conventional mechanism for preventing assembly omissions requires a parts distributor, which increases the number of personnel required.
In addition, the parts storage warehouse is configured to inform the worker of the location of the parts to be collected by lighting an LED provided at the collection port. However, the parts storage warehouse is configured in such a way that the lighting status of the LED is difficult to understand depending on the work environment, and there is a problem that simply lighting the LED does not inform the worker of information such as how many parts to collect and where and how to install the parts.
Furthermore, conventional mechanisms for preventing missed assembly parts had the problem that they required a great deal of preparatory labor when launching a new product, such as arranging parts in the order in which they would be used, and creating the kit boxes used to prevent missed assembly parts.
Furthermore, with the conventional system for preventing assembly omissions, there were many design changes, such as part changes, that occurred during the start-up period, so the kit boxes had to be remade each time, which meant it took a long time to complete manufacturing preparations.

また、前記した組立誤りを防止する仕組みは、作業指示書が紙でファイルに保存されているため、所望のページの検索や、作業指示書の維持管理に工数がかかってしまい、組立誤りを防止するためのサポートシステムの提供が要望されている、という課題があった。 In addition, the mechanism for preventing assembly errors described above has the problem that because the work instructions are stored in paper files, it takes time to search for the desired page and to maintain and manage the work instructions, and there is a demand for a support system to prevent assembly errors.

また、前記した作業漏れを防止する仕組みは、チェックシートが紙媒体であり、作業履歴を紙媒体に記入したり捺印やサインを行ったりする手間がかかるとともに、チェックシートの維持管理に工数がかかってしまい、作業漏れを防止するためのサポートシステムの提供が要望されている、という課題があった。 The aforementioned system for preventing oversight of tasks has the problem that the checklists are paper-based, which requires the time-consuming task of writing the work history on paper and stamping or signing it, and the maintenance of the checklists requires a lot of man-hours, so there is a demand for a support system to prevent oversight of tasks.

本発明は、前記した課題を解決するためになされたものであり、装置を生産する際に好適な情報を組立作業者に提示するナビゲーションシステム、情報処理方法、及び、プログラムを提供することを主な目的とする。 The present invention has been made to solve the above-mentioned problems, and has as its main object to provide a navigation system, an information processing method , and a program that present suitable information to an assembly worker when producing a device.

前記目的を達成するため、第1発明は、ナビゲーションシステムであって、作業者が採取を行う品物を載置する複数の載置部に対応する領域に対し、作業者を補助する情報を表示するよう制御する表示制御部と、撮影部により撮影された前記作業者を含む動画像に基づいて、前記作業者の動作を分析する分析制御部と、前記分析制御部による分析結果に基づく作業実績を記憶する記憶部と、前記記憶部に記憶された前記作業実績に基づいて、作業時間を含む情報を出力する出力部と、を備える構成とする。 In order to achieve the above-mentioned object, the first invention is a navigation system comprising a display control unit that controls the display of information assisting the worker in areas corresponding to a plurality of placement units on which the worker places items to be collected, an analysis control unit that analyzes the movements of the worker based on a moving image including the worker captured by a photographing unit, a memory unit that stores work results based on the analysis results by the analysis control unit, and an output unit that outputs information including work time based on the work results stored in the memory unit .

また、第2発明は、情報処理方法であって、作業者が採取を行う品物を載置する複数の載置部に対応する領域に対し、作業者を補助する情報を表示するよう制御するステップと、撮影部により撮影された前記作業者を含む動画像に基づいて、前記作業者の動作を分析するステップと、分析した結果に基づく作業実績を記憶部に記憶させるステップと、前記記憶部に記憶された前記作業実績に基づいて、作業時間を含む情報を出力するステップと、を備える構成とする。
また、第3発明は、プログラムあって、コンピュータを、作業者が採取を行う品物を載置する複数の載置部に対応する領域に対し、作業者を補助する情報を表示するよう制御する表示制御部と、撮影部により撮影された前記作業者を含む動画像に基づいて、前記作業者の動作を分析する分析制御部と、前記分析制御部による分析結果に基づく作業実績を記憶する記憶部と、前記記憶部に記憶された前記作業実績に基づいて、作業時間を含む情報を出力する出力部と、として機能させる構成とする。
In addition, the second invention is an information processing method comprising the steps of: controlling the display of information assisting the worker in areas corresponding to a plurality of mounting sections on which the worker places items to be collected; analyzing the movements of the worker based on a moving image including the worker captured by a photographing section; storing work results based on the results of the analysis in a memory section; and outputting information including work time based on the work results stored in the memory section.
Moreover, the third invention is a program configured to cause a computer to function as a display control unit that controls a computer to display information assisting the worker in areas corresponding to a plurality of placement units on which the worker places items to be collected, an analysis control unit that analyzes the movements of the worker based on a moving image including the worker captured by a photographing unit, a memory unit that stores work results based on the analysis results by the analysis control unit, and an output unit that outputs information including work time based on the work results stored in the memory unit .

本発明によれば、装置を生産する際に好適な情報を組立作業者に提示することができる。 The present invention makes it possible to provide assembly workers with information that is appropriate for producing a device.

実施形態に係るシステムの全体構成を示す図である。1 is a diagram showing an overall configuration of a system according to an embodiment; 実施形態に係る生産ナビゲーションシステムの構成を示す図(1)である。FIG. 1 is a diagram showing a configuration of a production navigation system according to an embodiment. 実施形態に係る生産ナビゲーションシステムの構成を示す図(2)である。FIG. 2 is a diagram showing the configuration of the production navigation system according to the embodiment. 実施形態に係る生産ナビゲーションシステムの主要部の構成を示す図(1)である。FIG. 1 is a diagram showing a configuration of a main part of a production navigation system according to an embodiment of the present invention; 実施形態に係る生産ナビゲーションシステムの主要部の構成を示す図(2)である。FIG. 2 is a diagram showing the configuration of the main parts of the production navigation system according to the embodiment; 実施形態に係る生産ナビゲーションシステムの全体動作を示すフローチャートである。4 is a flowchart showing the overall operation of the production navigation system according to the embodiment. 実施形態に係る生産ナビゲーションシステムの部品ナビゲーション時の動作を示すフローチャートである。5 is a flowchart showing an operation during part navigation of the production navigation system according to the embodiment. 表示画面の一例を示す図(1)である。FIG. 1 is a diagram showing an example of a display screen. 表示画面の一例を示す図(2)である。FIG. 2 shows an example of a display screen. 表示画面の一例を示す図(3)である。FIG. 3 shows an example of a display screen. 表示画面の一例を示す図(4)である。FIG. 4 shows an example of a display screen. 表示画面の一例を示す図(5)である。FIG. 5 shows an example of a display screen. 表示画面の一例を示す図(6)である。FIG. 6 shows an example of a display screen. 実施形態に係る生産ナビゲーションシステムの部品ナビゲーション時の表示例を示す図(1)である。FIG. 11 is a diagram showing a display example during part navigation in the production navigation system according to the embodiment; 実施形態に係る生産ナビゲーションシステムの部品ナビゲーション時の表示例を示す図(2)である。FIG. 13 is a diagram showing a display example during part navigation in the production navigation system according to the embodiment (2). 実施形態に係る生産ナビゲーションシステムにおける手の位置検出動作の概要を示す図である。1 is a diagram showing an overview of a hand position detection operation in a production navigation system according to an embodiment. FIG. 実施形態に係る生産ナビゲーションシステムの画像解析例を示す図である。FIG. 11 is a diagram showing an example of image analysis in the production navigation system according to the embodiment. 実施形態に係る生産ナビゲーションシステムにおける手の位置検出時の確定手順を示す図である。11 is a diagram showing a procedure for determining a hand position when the hand position is detected in the production navigation system according to the embodiment. FIG. 実施形態に係る生産ナビゲーションシステムの画像解析用の設定例を示す図(1)である。FIG. 1 is a diagram showing an example of settings for image analysis in a production navigation system according to an embodiment. 実施形態に係る生産ナビゲーションシステムの画像解析用の設定例を示す図(2)である。FIG. 2 shows an example of settings for image analysis in the production navigation system according to the embodiment. 実施形態に係る生産ナビゲーションシステムの画像解析時の動作を示すフローチャートである。4 is a flowchart showing an operation during image analysis of the production navigation system according to the embodiment. 実施形態に係る生産ナビゲーションシステムのデータ管理動作を示すフローチャートである。4 is a flowchart showing a data management operation of the production navigation system according to the embodiment. 管理情報ファイルの一例を示す図である。FIG. 4 is a diagram showing an example of a management information file. メイン画面の一例を示す図である。FIG. 13 is a diagram showing an example of a main screen. 生産状況画面の一例を示す図である。FIG. 13 is a diagram showing an example of a production status screen. 生産台数実績画面の一例を示す図である。FIG. 13 is a diagram showing an example of a production volume performance screen. 作業比較画面の一例を示す図である。FIG. 13 is a diagram showing an example of a task comparison screen. 作業実績(日別)画面の一例を示す図である。FIG. 13 is a diagram showing an example of a work performance (by day) screen. 作業実績(工程別)画面の一例を示す図である。FIG. 13 is a diagram showing an example of a work performance (by process) screen. 動作分析画面の一例を示す図である。FIG. 13 is a diagram showing an example of a motion analysis screen. 終了画面の一例を示す図である。FIG. 13 is a diagram showing an example of an end screen.

以下、図面を参照して、本発明の実施の形態(以下、「本実施形態」と称する)につき詳細に説明する。なお、各図は、本発明を十分に理解できる程度に、概略的に示してあるに過ぎない。よって、本発明は、図示例のみに限定されるものではない。また、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する説明を省略する。 Below, an embodiment of the present invention (hereinafter referred to as "this embodiment") will be described in detail with reference to the drawings. Note that each figure is merely a schematic illustration to allow a sufficient understanding of the present invention. Therefore, the present invention is not limited to the illustrated examples. In addition, in each figure, common or similar components are given the same reference numerals, and duplicate explanations thereof will be omitted.

[実施形態]
<システムの全体構成>
以下、図1を参照して、本実施形態に係るシステムの全体構成につき説明する。図1は、本実施形態に係るシステムの全体構成を示す図である。
[Embodiment]
<Overall system configuration>
The overall configuration of the system according to this embodiment will be described below with reference to Fig. 1. Fig. 1 is a diagram showing the overall configuration of the system according to this embodiment.

図1に示すように、何らかの装置を生産する工場には、生産ナビゲーションシステム10と、サポートシステム60とが設置されている。
生産ナビゲーションシステム10は、組立作業者(以下、単に「作業者」と称する場合がある)に様々な情報を提示して、製品の組立作業を支援するシステムである。生産ナビゲーションシステム10は、作業者の作業状況を撮影した撮影画像(静止画や動画)や作業者の音声を録音した音声情報等をサポートシステム60に出力することができる。なお、図1には、制御装置11、管理部71、表示情報作成部72、蓄積部73等が示されているが、これらについては後記する。
サポートシステム60は、生産ナビゲーションシステム10をサポートするシステムである。
As shown in FIG. 1, a production navigation system 10 and a support system 60 are installed in a factory that produces some kind of device.
The production navigation system 10 is a system that supports the assembly work of a product by presenting various information to an assembly worker (hereinafter, sometimes simply referred to as "worker"). The production navigation system 10 can output captured images (still images or videos) of the worker's working status, audio information recorded from the worker's voice, and the like to the support system 60. Note that Fig. 1 shows a control device 11, a management unit 71, a display information creation unit 72, a storage unit 73, and the like, which will be described later.
The support system 60 is a system that supports the production navigation system 10 .

生産ナビゲーションシステム10とサポートシステム60とは、有線又は無線によって通信可能に接続されている。なお、サポートシステム60は、工場の外に設置されていてもよい。 The production navigation system 10 and the support system 60 are connected to each other via wire or wireless communication. The support system 60 may be installed outside the factory.

サポートシステム60は、データ収集装置61と、データ処理装置62と、サポート装置63とを有している。 The support system 60 has a data collection device 61, a data processing device 62, and a support device 63.

データ収集装置61は、生産ナビゲーションシステム10から出力される撮影情報や音声情報等を保存部に保存する。また、データ収集装置61は、各種の情報(例えば、作業指示書情報、作業工程情報、ガイダンス情報、マーク等の投影位置情報等)や各種のプログラム(例えば、表示機構の制御プログラム、画像解析用の制御プログラム等)を保存部に保存しておき、これらを生産ナビゲーションシステム10に提供することができる。
データ処理装置62は、データ収集装置61に保存された撮影情報や音声情報等に基づいて作業内容等を解析する。
サポート装置63は、作業者の作業内容の解析や作業指示書の作成等に利用される。サポート装置63は、パーソナルコンピュータ(PC)によって構成されている。サポート装置63は、管理者や支援要員等(以下、「管理者等」と称する)によって操作され、解析データ(例えば、後記する図19B~図19E参照)等の作成に利用される。
The data collection device 61 stores in a storage unit the photographed information, audio information, and the like output from the production navigation system 10. The data collection device 61 also stores in the storage unit various types of information (e.g., work instruction information, work process information, guidance information, projection position information of marks, and the like) and various programs (e.g., a control program for a display mechanism, a control program for image analysis, and the like) and can provide these to the production navigation system 10.
The data processing device 62 analyzes the work contents, etc. based on the photographic information, audio information, etc. stored in the data collecting device 61.
The support device 63 is used for analyzing the work content of the worker, creating work instructions, etc. The support device 63 is configured by a personal computer (PC). The support device 63 is operated by a manager, a support staff member, etc. (hereinafter referred to as "manager, etc.") and is used for creating analysis data (for example, see Figures 19B to 19E described later) etc.

データ収集装置61は、例えば、取得部81、保存部82、解析部83、提供部84等の機能手段を有している。取得部81は、生産ナビゲーションシステム10から製品の組立作業時の作業データを取得する機能手段である。作業データは、製品の組立作業時に生産ナビゲーションシステム10で撮影された撮影画像を含んでいる。保存部82は、製品の組立作業時の作業データを保存する機能手段である。解析部83は、製品の組立作業時の作業データに基づいて、作業の進め方や進捗状況等を解析する機能手段である。提供部84は、生産ナビゲーションシステム10で表示情報として表示されるナビゲーション情報を生産ナビゲーションシステム10に提供する機能手段である。これらの機能手段の中の1乃至複数の手段は、サポートシステム60のデータ処理装置62、サポート装置63、生産ナビゲーションシステム10の制御装置11等にも設けるようにしてもよい。 The data collection device 61 has functional means such as an acquisition unit 81, a storage unit 82, an analysis unit 83, and a provision unit 84. The acquisition unit 81 is a functional means for acquiring work data during product assembly work from the production navigation system 10. The work data includes images captured by the production navigation system 10 during product assembly work. The storage unit 82 is a functional means for storing work data during product assembly work. The analysis unit 83 is a functional means for analyzing the progress and progress of work based on the work data during product assembly work. The provision unit 84 is a functional means for providing navigation information to the production navigation system 10, which is displayed as display information in the production navigation system 10. One or more of these functional means may also be provided in the data processing device 62, support device 63, control device 11, etc. of the support system 60.

<生産ナビゲーションシステムの構成>
以下、図2及び図3を参照して生産ナビゲーションシステム10の構成につき説明する。図2及び図3は、生産ナビゲーションシステム10の構成を示す図である。
<Production navigation system configuration>
The configuration of the production navigation system 10 will be described below with reference to Figures 2 and 3. Figures 2 and 3 are diagrams showing the configuration of the production navigation system 10.

図2に示すように、生産ナビゲーションシステム10は、制御装置11と、棚12と、作業台13と、撮影部14(14a,14b)と、表示機構15と、ディスプレイ16(16a,16b)と、マイク17と、スピーカ18と、コード入力部19、モーションキャプチャカメラ20とを有している。 As shown in FIG. 2, the production navigation system 10 has a control device 11, a shelf 12, a workbench 13, a photographing unit 14 (14a, 14b), a display mechanism 15, a display 16 (16a, 16b), a microphone 17, a speaker 18, a code input unit 19, and a motion capture camera 20.

制御装置11は、撮影部14や表示機構(表示部)15、ディスプレイ16、マイク17、スピーカ18等の動作を制御する。制御装置11は、これらの機器と有線又は無線によって通信可能に接続されている。また、制御装置11は、サポートシステム60のデータ収集装置61と有線又は無線によって通信可能に接続されている。制御装置11は、パーソナルコンピュータ(PC)によって構成され、予め記憶された制御プログラムに基づいて動作する。制御装置11は、撮影部14で撮影された作業者の特定部位の位置に応じて、表示機構15に表示させる表示情報を決定する。 The control device 11 controls the operation of the imaging unit 14, display mechanism (display unit) 15, display 16, microphone 17, speaker 18, etc. The control device 11 is connected to these devices so as to be able to communicate with them via wired or wireless communication. The control device 11 is also connected to a data collection device 61 of the support system 60 so as to be able to communicate with them via wired or wireless communication. The control device 11 is configured as a personal computer (PC) and operates based on a control program stored in advance. The control device 11 determines the display information to be displayed on the display mechanism 15 according to the position of a specific part of the worker photographed by the imaging unit 14.

制御装置11は、図1に示すように、例えば、管理部71、表示情報作成部72、蓄積部73等の機能手段を有している。管理部71は、蓄積部73に蓄積された作業データに基づいて作業実績を管理する機能手段である。表示情報作成部72は、作業実績を表す表示情報を任意のタイミングで作成する機能手段である。蓄積部73は、製品の組立作業時に取得された作業データを蓄積する機能手段である。これらの機能手段の中の1乃至複数の手段は、サポートシステム60のデータ収集装置61、データ処理装置62、サポート装置63等にも設けるようにしてもよい。 As shown in FIG. 1, the control device 11 has functional means such as a management unit 71, a display information creation unit 72, and a storage unit 73. The management unit 71 is a functional means for managing work results based on work data stored in the storage unit 73. The display information creation unit 72 is a functional means for creating display information representing work results at any time. The storage unit 73 is a functional means for storing work data acquired during product assembly work. One or more of these functional means may also be provided in the data collection device 61, data processing device 62, support device 63, etc. of the support system 60.

図2に戻り、棚12は、多数(ここでは、縦方向に4段、横方向に6列、合計24個)の部品載置部21を備え、部品倉庫として機能する。棚12には、複数の仕切板22が設けられている。それぞれの仕切板22は、略鉛直方向に配置されており、個々の部品載置部21を区切るとともに、先端が棚12の前面から前方に突出するように配置されている。各部品載置部21には、トレイ40が載置されており、そのトレイ40には単一種類の部品(例えば、ネジやブラケット、ローラ等)が収納されている。制御装置11は、どの位置の部品載置部21にどの種類の部品41が載置されているのかを表す部品載置情報を管理しており、作業者が部品載置部21から部品41を採取したときに、どの種類の部品41が採取されたのかを特定することができる。なお、部品載置部21には、例えば、電動ドライバ等の組立ツールを載置するようにしてもよい。 Returning to FIG. 2, the shelf 12 has a large number of part placement sections 21 (here, four vertical rows and six horizontal rows, a total of 24 parts) and functions as a parts warehouse. The shelf 12 is provided with a number of partitions 22. Each partition 22 is arranged in a substantially vertical direction, separating the individual part placement sections 21, and is arranged so that its tip protrudes forward from the front surface of the shelf 12. Each part placement section 21 has a tray 40 placed thereon, and the tray 40 stores a single type of part (e.g., screws, brackets, rollers, etc.). The control device 11 manages part placement information indicating which type of part 41 is placed on which part placement section 21, and can identify which type of part 41 has been picked up when a worker picks up a part 41 from the part placement section 21. Note that an assembly tool such as an electric screwdriver may be placed on the part placement section 21.

棚12には、コマンドの入力位置を任意に予め設定することができる。図示例では、例えば、下から1番目で右から1番目の部品載置部21の位置が特殊なコマンドの入力に使用される特殊コマンド入力部23として設定されている。コマンドの内容としては、例えば、リセット、リターン(決定)、メニュー選択、組立確認等がある。制御装置11は、作業者の手がコマンドの入力位置(図示例では、特殊コマンド入力部23)に翳(かざ)されたとき(すなわち、物の上方におおいかけるように手をさしだされたとき)に、入力位置に対応するコマンドに応じて表示情報を決定する。 A command input position can be preset arbitrarily on the shelf 12. In the illustrated example, for example, the position of the component placement unit 21 that is first from the bottom and first from the right is set as the special command input unit 23 used for inputting special commands. Commands include, for example, reset, return (confirm), menu selection, and assembly confirmation. When the worker holds his/her hand over the command input position (in the illustrated example, the special command input unit 23) (i.e., when the worker holds his/her hand out as if to cover an object), the control device 11 determines the display information according to the command corresponding to the input position.

作業台13は、作業者が部品組立等に利用する台である。作業台13は、平坦な台面(上面)を備えている。その台面は、棚12の全幅に亘って、水平方向に延在するように配置されている。 The workbench 13 is a table that a worker uses for assembling parts, etc. The workbench 13 has a flat table surface (upper surface). The table surface is positioned so as to extend horizontally across the entire width of the shelf 12.

撮影部14(14a,14b)は、作業者の作業状況等を撮影する。撮影部14は、ミラー32を支持する支持フレーム44によって、標準的な身長の作業者の頭の高さよりも上の位置(例えば、最上段の部品載置部の上方の位置)で、かつ、棚12の前面よりも前方の位置に配置されている。撮影部14は、USBカメラで構成されている。撮影部としてのUSBカメラ14は、撮影画像を制御装置11に出力する。USBカメラ14の数は、2台以上になっている。2台以上のUSBカメラ14は、左右方向に離れて配置されている。図示例では、2つのUSBカメラ14がミラー32の左右に取り付けられている。ただし、USBカメラ14の数は、3台以上であってもよい。また、USBカメラ14は、支持フレーム44に限らず、様々な場所(例えば、棚12の外部や各部品載置部21の内部等)に配置されていてもよい。 The photographing unit 14 (14a, 14b) photographs the working status of the worker. The photographing unit 14 is arranged by the support frame 44 that supports the mirror 32 at a position above the head height of a worker of average height (for example, above the top part placement unit) and in front of the front surface of the shelf 12. The photographing unit 14 is composed of a USB camera. The USB camera 14 as the photographing unit outputs the photographed image to the control device 11. The number of USB cameras 14 is two or more. The two or more USB cameras 14 are arranged separately in the left-right direction. In the illustrated example, two USB cameras 14 are attached to the left and right of the mirror 32. However, the number of USB cameras 14 may be three or more. The USB cameras 14 are not limited to being arranged on the support frame 44, but may be arranged in various places (for example, outside the shelf 12 or inside each part placement unit 21).

表示機構15は、各種の情報やマーク等を表示する表示部である。本実施形態では、表示機構15は、プロジェクタ31と、ミラー32と、板状部材33,34とで構成されている。ただし、表示機構15は、これらの機器の代わりに、板状部材33,34の位置に配置されたELディスプレイや液晶ディスプレイ等の装置によって構成することもできる。 The display mechanism 15 is a display unit that displays various information, marks, and the like. In this embodiment, the display mechanism 15 is composed of a projector 31, a mirror 32, and plate-like members 33 and 34. However, instead of these devices, the display mechanism 15 can also be composed of devices such as an EL display or a liquid crystal display arranged at the positions of the plate-like members 33 and 34.

ディスプレイ16(16a,16b)は、作業者に各種の情報を表示する。ディスプレイ16は、好ましくは、タッチパネルディスプレイによって構成されているとよい。ディスプレイ16aは、例えば、後記する図18に示す画面IM20等を表示する。一方、ディスプレイ16bは、例えば、後記する図19A~図19Eに示すメイン画面IM21~IM25、図20に示す画面IM31等を表示する。また、ディスプレイ16aとディスプレイ16bとは、例えば、いずれか一方を、モーションキャプチャカメラ20によって撮影された作業者の動画像を表示するモーションキャプチャディスプレイとして用い、他方を、動画像に基づいて作業者の作業内容を分析した結果を表示するデータ分析ディスプレイとして用いるようにしてもよい。なお、本実施形態では、制御装置11が2つのディスプレイ16a,16bの表示動作を制御するものとして説明する。しかしながら、生産ナビゲーションシステム10は2つのディスプレイ16a,16bのそれぞれに個別の制御装置を設けるようにしてもよい。
マイク17は、作業者の音声等を録音する。
スピーカ18は、アラーム音や音声ガイダンス情報を報音する。
The display 16 (16a, 16b) displays various information to the worker. The display 16 is preferably configured by a touch panel display. The display 16a displays, for example, a screen IM20 shown in FIG. 18 described later. On the other hand, the display 16b displays, for example, main screens IM21 to IM25 shown in FIGS. 19A to 19E described later and a screen IM31 shown in FIG. 20. In addition, for example, one of the displays 16a and 16b may be used as a motion capture display that displays a moving image of the worker captured by the motion capture camera 20, and the other may be used as a data analysis display that displays the results of an analysis of the work content of the worker based on the moving image. In this embodiment, the control device 11 is described as controlling the display operation of the two displays 16a and 16b. However, the production navigation system 10 may be configured to provide individual control devices for each of the two displays 16a and 16b.
The microphone 17 records the voice of the worker, etc.
The speaker 18 issues an alarm sound and voice guidance information.

コード入力部19は、コードが入力される。図示例では、コード入力部19は、バーコードスキャナによって構成されており、作業台13に取り付けられている。コード入力部19は、バーコードスキャナに限らず、例えばICカードリーダやキーボード等の各種の入力手段によって構成することができる。 The code input unit 19 is where the code is input. In the illustrated example, the code input unit 19 is configured with a barcode scanner and is attached to the workbench 13. The code input unit 19 is not limited to a barcode scanner, and can be configured with various input means such as an IC card reader or a keyboard.

モーションキャプチャカメラ20は、少なくとも作業者の上半身を含む、作業者のほぼ全体像を撮影する。モーションキャプチャカメラ20は、例えば作業台13の側方に配置されている。制御装置11は、モーションキャプチャカメラ20によって撮影された動画像に基づいて、作業者の動線や顔の向き等を解析することができる。なお、本実施形態では、生産ナビゲーションシステム10がディスプレイ16とモーションキャプチャカメラ20とを含む構成になっているものとして説明している。しかしながら、生産ナビゲーションシステム10はこれらが無くても成り立つ。また、ディスプレイ16とモーションキャプチャカメラ20とは、1つの棚12に対して1つずつ設ける必要はなく、複数の棚12に対して1つ設けられていても良い。 The motion capture camera 20 captures an almost complete image of the worker, including at least the upper body of the worker. The motion capture camera 20 is placed, for example, to the side of the workbench 13. The control device 11 can analyze the worker's movement line, facial direction, and the like, based on the video images captured by the motion capture camera 20. Note that in this embodiment, the production navigation system 10 is described as including a display 16 and a motion capture camera 20. However, the production navigation system 10 can function without these. Also, it is not necessary to provide one display 16 and one motion capture camera 20 for each shelf 12, and one may be provided for multiple shelves 12.

なお、ミラー32を支持する支持フレーム44のUSBカメラ14の配置位置よりも前方の位置には、例えば、電動ドライバ等の組立ツール46を吊り下げる吊下部として機能するレール45が設けられている。作業者は、レール45に吊り下げられた組立ツール46を使用することにより、容易に組立作業を行うことができる。また、制御装置11は、例えば、部品41がネジであり、組立ツール46としての電動ドライバが使用される場合に、部品41の種類に応じて電動ドライバのトルクを変更する処理を行うことができる。これにより、生産ナビゲーションシステム10は、組立作業を支援することができる。また、制御装置11は、生産ナビゲーションシステム10に複数の電動ドライバが設けられている場合で、かつ、作業者が使用する電動ドライバの選択を間違えたときに、次工程に進まないように、表示情報としてエラーメッセージを表示して、作業者に注意を喚起することができる。これによっても、生産ナビゲーションシステム10は、組立作業を支援することができる。なお、部品41の種類は、例えば、USBカメラ14で撮影された動画像から解析された部品41の採取位置である部品載置部21(採取口)の位置情報、表示情報として作業者に部品41の採取を指示した部品載置部21(採取口)の位置情報に基づいて、特定することができる。 In addition, a rail 45 that functions as a hanging part for hanging an assembly tool 46 such as an electric screwdriver is provided at a position forward of the position of the USB camera 14 on the support frame 44 that supports the mirror 32. The worker can easily perform the assembly work by using the assembly tool 46 hung on the rail 45. In addition, the control device 11 can perform a process to change the torque of the electric screwdriver according to the type of the part 41, for example, when the part 41 is a screw and an electric screwdriver is used as the assembly tool 46. This allows the production navigation system 10 to support the assembly work. In addition, when the production navigation system 10 is provided with multiple electric screwdrivers and the worker makes a mistake in selecting the electric screwdriver to be used, the control device 11 can display an error message as display information to alert the worker so that the worker does not proceed to the next process. This also allows the production navigation system 10 to support the assembly work. The type of part 41 can be identified based on, for example, position information of the part placement unit 21 (picking port), which is the picking position of the part 41 analyzed from the video image captured by the USB camera 14, and position information of the part placement unit 21 (picking port) that instructs the worker to pick the part 41 as display information.

図3に示すように、本実施形態では、表示機構15は、ミラー32を介して、様々な表示画像をプロジェクタ31から板状部材33,34や作業台13の台面に投影している。つまり、表示機構15は、板状部材33,34や作業台13の台面を投影部とし、プロジェクションマッピング技術を利用して、様々な表示画像を板状部材33,34や作業台13の台面に投影している。プロジェクタ31は、表示情報に補正を施して、矩形に近似した形状で板状部材33,34及び作業台13の台面に投影する。 As shown in FIG. 3, in this embodiment, the display mechanism 15 projects various display images from the projector 31 onto the plate-like members 33, 34 and the surface of the workbench 13 via the mirror 32. In other words, the display mechanism 15 uses the plate-like members 33, 34 and the surface of the workbench 13 as projection units, and projects various display images onto the plate-like members 33, 34 and the surface of the workbench 13 using projection mapping technology. The projector 31 corrects the display information and projects it onto the plate-like members 33, 34 and the surface of the workbench 13 in a shape that approximates a rectangle.

プロジェクタ31は、棚12の上に配置されている。また、ミラー32は、支持フレーム44によって、標準的な身長の作業者の頭の高さよりも上の位置(例えば、最上段の部品載置部の上方の位置)で、かつ、棚12の前面よりも前方の位置に配置されている。具体的には、ミラー32は、作業台13の上方でかつ棚12の斜め上方向に、棚12の全幅に亘って左右方向(横方向)に延在するように配置されている。ミラー32は、反射面がプロジェクタ31に対向するように配置されている。ミラー32は、反射角度が上下方向に変更できるように、支持機構によって回動可能に支持されている。ミラー32は、任意の反射角度で固定設置することができる。 The projector 31 is disposed on the shelf 12. The mirror 32 is disposed by the support frame 44 at a position above the head height of a worker of average height (for example, above the top part placement section) and in front of the front surface of the shelf 12. Specifically, the mirror 32 is disposed above the workbench 13 and diagonally upward from the shelf 12, so as to extend in the left-right direction (horizontal direction) across the entire width of the shelf 12. The mirror 32 is disposed so that its reflective surface faces the projector 31. The mirror 32 is rotatably supported by a support mechanism so that the reflection angle can be changed in the vertical direction. The mirror 32 can be fixed at any reflection angle.

板状部材33,34は、プロジェクタ31から投影された画像(表示情報)が結像される投影部として機能する部位である。板状部材33,34は、部品載置部21の上方及び下方のいずれか一方又は双方の位置に配置されている。ただし、板状部材33,34は、好ましくは、作業者の手がプロジェクタ31から投影された画像(表示情報)を遮らないように(つまり、投影された画像が作業者の手の甲に映ってしまい、画像を投影すべき位置に作業者の手の影が映ることのないように)、部品載置部21の上方の位置に配置されているとよい。これにより、プロジェクタ31は、作業者の手が邪魔しない位置に、画像(表示情報)を投影することができる。特に、例えば矢印状のマークMk(図8参照)等を投影する場合は、画像(表示情報)を部品載置部21の上方の位置に表示(投影)するとよい。板状部材33,34の少なくとも上面(露出面)は、平坦な面になっている。板状部材33は、板状部材34よりも大型な構成になっている。板状部材33は、比較的広い面積を要する情報(例えば、組立ガイダンス情報Gu(図8参照)、作業指示書情報、図形情報、工程フロー情報等)の提示に適している。板状部材34は、比較的狭い面積しか要さない情報(例えば、マークMk(図8参照)等)の提示に適している。 The plate-like members 33 and 34 are portions that function as projection units on which the image (display information) projected from the projector 31 is formed. The plate-like members 33 and 34 are disposed at either or both of the upper and lower positions of the component placement unit 21. However, the plate-like members 33 and 34 are preferably disposed at a position above the component placement unit 21 so that the worker's hand does not block the image (display information) projected from the projector 31 (i.e., so that the projected image is not reflected on the back of the worker's hand and the shadow of the worker's hand is not reflected at the position where the image should be projected). This allows the projector 31 to project the image (display information) at a position where the worker's hand does not get in the way. In particular, when projecting, for example, an arrow-shaped mark Mk (see FIG. 8), it is preferable to display (project) the image (display information) at a position above the component placement unit 21. At least the upper surface (exposed surface) of the plate-like members 33 and 34 is a flat surface. The plate-like member 33 is configured to be larger than the plate-like member 34. The plate-shaped member 33 is suitable for presenting information that requires a relatively large area (e.g., assembly guidance information Gu (see FIG. 8), work instruction information, graphic information, process flow information, etc.). The plate-shaped member 34 is suitable for presenting information that requires only a relatively small area (e.g., marks Mk (see FIG. 8), etc.).

図示例では、板状部材33,34は、棚12の全幅に亘って左右方向(横方向)に延在するように棚12の前面に斜めに傾斜して配置されている。ただし、板状部材33は、棚12の幅よりも短い幅で構成することも可能である。 In the illustrated example, the plate-like members 33 and 34 are arranged at an angle on the front surface of the shelf 12 so as to extend in the left-right direction (horizontal direction) across the entire width of the shelf 12. However, the plate-like member 33 can also be configured with a width that is shorter than the width of the shelf 12.

板状部材33,34は、表示画像を鮮明に投影することができるように、また、USBカメラ14(図2参照)で作業者の手を良好に(具体的には、背景から抽出可能に)撮影することができるように、白色系の色を呈しているとよい。作業台13も、好ましくは、白色系の色を呈しているとよい。 The plate-like members 33, 34 are preferably white in color so that the display image can be clearly projected and so that the USB camera 14 (see FIG. 2) can clearly capture the worker's hands (specifically, so that they can be extracted from the background). The workbench 13 is also preferably white in color.

板状部材33,34は、配置されている高さに応じて、下に配置されるものほど、前方(作業スペース側)に突出するように配置されている(図4A参照)。また、板状部材33,34は、後方部分よりも前方部分が下がるように傾斜して配置されている。特に、板状部材34は、配置されている高さに応じて、下に配置されるものほど、寝かせた状態(倒れた状態)になるように、傾斜して配置されている(図4B参照)。これにより、表示機構15は、ミラー32で反射された表示情報を板状部材33,34に良好に投影することができる。 The plate-like members 33, 34 are arranged so that the lower they are, the more they protrude forward (towards the work space) depending on the height at which they are placed (see FIG. 4A). The plate-like members 33, 34 are also arranged at an incline so that the front portion is lower than the rear portion. In particular, the plate-like members 34 are arranged at an incline so that the lower they are, the more they are laid down (fallen) depending on the height at which they are placed (see FIG. 4B). This allows the display mechanism 15 to effectively project the display information reflected by the mirror 32 onto the plate-like members 33, 34.

係る構成において、表示機構15は、表示画像をミラー32で反射させることにより、表示画像を投影させるために十分な距離を、プロジェクタ31と板状部材33,34との間及びプロジェクタ31と作業台13の台面との間に確保している。このような表示機構15は、プロジェクタ31から狭い投影角度で表示画像を広範囲に投影することができる。その結果、生産ナビゲーションシステム10は、表示情報を投影部(板状部材33,34及び作業台13の台面)に良好に投影するための投影距離を確保することができるため、天井等の高い位置にプロジェクタ31を配置することを回避することができる。そのため、生産ナビゲーションシステム10は、例えば天井の高くない場所であっても使用することができる。 In this configuration, the display mechanism 15 reflects the display image with the mirror 32, ensuring a sufficient distance between the projector 31 and the plate-like members 33, 34 and between the projector 31 and the surface of the workbench 13 to project the display image. Such a display mechanism 15 can project the display image from the projector 31 over a wide area at a narrow projection angle. As a result, the production navigation system 10 can ensure a projection distance for properly projecting the display information onto the projection unit (the plate-like members 33, 34 and the surface of the workbench 13), making it possible to avoid placing the projector 31 in a high position such as on a ceiling. Therefore, the production navigation system 10 can be used even in places where the ceiling is not high, for example.

また、生産ナビゲーションシステム10は、プロジェクタ31で表示情報を作業台13の台面にも投影することができるため、作業者の見易い位置に比較的大きな画像を提示することができ、その結果、作業効率を向上させることができる。 In addition, the production navigation system 10 can project the display information onto the surface of the workbench 13 using the projector 31, allowing a relatively large image to be presented in a position that is easy for the worker to see, thereby improving work efficiency.

また、表示機構15は、表示画像をミラー32で反射させることにより、プロジェクタ31を棚12の上に配置することができる。棚12の上は比較的利用されない場所であるため、表示機構15は、その場所を有効に利用することができる。また、表示機構15は、比較的重量物であるプロジェクタ31を作業者の作業場所から離れた場所に配置させることができるため、作業者の安全を確保することができる。なお、ミラー32は、例えば強化プラスチック等の割れ難い素材で構成されている。これによっても、生産ナビゲーションシステム10は、作業者の安全を確保することができる。 The display mechanism 15 can also position the projector 31 on the shelf 12 by reflecting the display image with the mirror 32. Because the top of the shelf 12 is a relatively unused space, the display mechanism 15 can effectively use this space. The display mechanism 15 can also position the projector 31, which is a relatively heavy object, away from the worker's work area, ensuring the safety of the worker. The mirror 32 is made of a material that is difficult to break, such as reinforced plastic. This also enables the production navigation system 10 to ensure the safety of the worker.

また、生産ナビゲーションシステム10は、板状部材34の数を増やすことにより、表示情報を複数箇所に同時に表示することができる。つまり、生産ナビゲーションシステム10は、板状部材34の数を増やすだけで、表示情報を表示させる部位を容易かつ安価に増やすことができる。 Furthermore, the production navigation system 10 can display the display information in multiple locations simultaneously by increasing the number of plate-like members 34. In other words, the production navigation system 10 can easily and inexpensively increase the number of locations where the display information is displayed, simply by increasing the number of plate-like members 34.

図4A及び図4Bは、それぞれ、生産ナビゲーションシステム10の主要部の構成を示す図である。 Figures 4A and 4B each show the configuration of the main parts of the production navigation system 10.

図4Aに示すように、本実施形態では、棚12には、4段の部品載置部21が設けられている。以下、4段の部品載置部21のそれぞれを区別する場合に、上段のものから順番に「部品載置部21a,21b,21c,21d」と称する(図4B参照)。棚12の前面部分は、上部側の方よりも下部側の方が前方に突出するように、傾斜して設けられている。また、各部品載置部21は、後方部分よりも前方部分が下がるように、傾斜して設けられている。最下段の部品載置部21の下方の空間は、棚12の前面部分からアクセスし難いデッドスペースになっており、そのスペースに制御装置11が配置されている。これにより、生産ナビゲーションシステム10は、棚12内の空間を無駄なく活用するようにしている。 As shown in FIG. 4A, in this embodiment, the shelf 12 is provided with four component placement sections 21. Hereinafter, when distinguishing between the four component placement sections 21, they will be referred to as "component placement sections 21a, 21b, 21c, 21d" in order from the top (see FIG. 4B). The front portion of the shelf 12 is inclined so that the lower side protrudes further forward than the upper side. Also, each component placement section 21 is inclined so that the front portion is lower than the rear portion. The space below the lowest component placement section 21 is dead space that is difficult to access from the front portion of the shelf 12, and the control device 11 is disposed in that space. In this way, the production navigation system 10 makes full use of the space in the shelf 12.

棚12の前方には、組立作業を行うための作業空間SP1が設けられている。一方、棚12の後方には、部品41が収納されたトレイ40を配膳するための通路空間SP2が設けられている。配膳者や作業者は、通路空間SP2から部品41が収納されたトレイ40を部品載置部21に配膳する(差し入れる)ことにより、トレイ40を部品載置部21内で滑り込ませることによって、トレイ40を棚12の前面付近の位置に配置させることができる。 In front of the shelf 12, a work space SP1 is provided for assembly work. Meanwhile, behind the shelf 12, an aisle space SP2 is provided for distributing trays 40 containing parts 41. A distributor or worker can distribute (insert) the tray 40 containing parts 41 from the aisle space SP2 into the part placement section 21, and by sliding the tray 40 within the part placement section 21, the tray 40 can be positioned near the front of the shelf 12.

プロジェクタ31は、棚12の上の後方部分に配置されている。これにより、生産ナビゲーションシステム10は、棚12が前方に倒れるのを抑制することができる。 The projector 31 is positioned at the rear of the top of the shelf 12. This allows the production navigation system 10 to prevent the shelf 12 from tipping forward.

図4Bに示すように、部品載置部21は、好ましくは、各段に複数のトレイ40を載置できるようにするとよい。つまり、部品載置部21の奥行き方向の長さは、好ましくは、2つ分以上のトレイ40の奥行き方向の長さよりも長くなっているとよい。これにより、生産ナビゲーションシステム10は、空になった前方のトレイ40を取り除いて、空になったトレイ40の後方に載置されていた新しいトレイ40を棚12の前面付近の位置に配置させることができる。なお、部品載置部21の奥行き方向の長さは、上段のものほど短くなっている。したがって、最上段の部品載置部21aの奥行き方向の長さが一番短くなっている。 As shown in FIG. 4B, the component placement section 21 is preferably adapted to be able to place multiple trays 40 on each level. In other words, the depth length of the component placement section 21 is preferably longer than the depth length of two or more trays 40. This allows the production navigation system 10 to remove the front tray 40 that has become empty, and position the new tray 40 that was placed behind the empty tray 40 in a position near the front of the shelf 12. The depth length of the component placement section 21 is shorter in the upper levels. Therefore, the depth length of the topmost component placement section 21a is the shortest.

部品載置部21を区切る各仕切板22a,22b,22c,22dは、それぞれ、上部分が斜めにカットされた傾斜面22aa,22ab,22ac,22adを備える形状になっている。各仕切板22の形は、棚12の上段側に配置されたものと棚12の下段側に配置されたものとで異なっている。例えば、図示例では、各仕切板22の奥行き方向の長さが下段側に配置されたものほど長くなっている。また、各傾斜面22aa,22ab,22ac,22adの上下方向の長さが下段側に配置されたものほど長くなっている。なお、各仕切板22a,22b,22c,22dは、傾斜面22aa,22ab,22ac,22ad代わりに、円弧状に形成されたR面を備える形状になっていてもよい。 Each of the partition plates 22a, 22b, 22c, and 22d that divide the part placement section 21 is shaped to have an inclined surface 22aa, 22ab, 22ac, and 22ad with the upper portion cut diagonally. The shape of each partition plate 22 differs between those arranged on the upper side of the shelf 12 and those arranged on the lower side of the shelf 12. For example, in the illustrated example, the length of each partition plate 22 in the depth direction is longer for those arranged on the lower side. Also, the length of each inclined surface 22aa, 22ab, 22ac, and 22ad in the vertical direction is longer for those arranged on the lower side. Note that each of the partition plates 22a, 22b, 22c, and 22d may be shaped to have an R surface formed in an arc shape instead of the inclined surfaces 22aa, 22ab, 22ac, and 22ad.

図5は、生産ナビゲーションシステム10の全体動作を示すフローチャートである。図6は、生産ナビゲーションシステム10の部品ナビゲーション時の動作を示すフローチャートである。図7A乃至図7Fは、それぞれ、表示画面の一例を示す図である。図7A乃至図7Fは、それぞれ、最上段の表示画面を板状部材33に表示(投影)させ、中段の表示画面を板状部材34(4段ある板状部材34の中の任意のもの)に表示(投影)させ、最下段の表示画面を作業台13の台面に表示(投影)させることを表している。なお、ここでは、各表示画面の表示(投影)動作は、主に、制御装置11の表示情報作成部72(図1参照)又は管理部71(図1参照)によって行われるものとして説明する。なお、図5及び図6に示すフローや図7A乃至図7Fに示す表示画面は運用に応じて適宜変更することができる。 Figure 5 is a flowchart showing the overall operation of the production navigation system 10. Figure 6 is a flowchart showing the operation of the production navigation system 10 during part navigation. Figures 7A to 7F are diagrams showing examples of display screens. Figures 7A to 7F respectively show that the top display screen is displayed (projected) on the plate-like member 33, the middle display screen is displayed (projected) on the plate-like member 34 (any of the four plate-like members 34), and the bottom display screen is displayed (projected) on the surface of the workbench 13. Note that the display (projection) operation of each display screen is mainly performed by the display information creation unit 72 (see Figure 1) or the management unit 71 (see Figure 1) of the control device 11. Note that the flows shown in Figures 5 and 6 and the display screens shown in Figures 7A to 7F can be changed as appropriate depending on the operation.

図5に示すように、生産ナビゲーションシステム10は、まず、例えば、図7Aに示す最上段の表示画面IM11aと中段の表示画面IM11bと最下段の表示画面IM11cとを、それぞれ、板状部材33と板状部材34と作業台13の台面とに表示(投影)させて、モード選択を受け付ける(S105)。ただし、図7Aに示す例では、最上段の表示画面IM11aと中段の表示画面IM11bとは、空白(ブランク)状態になっている。 As shown in FIG. 5, the production navigation system 10 first displays (projects) the top display screen IM11a, the middle display screen IM11b, and the bottom display screen IM11c shown in FIG. 7A onto the plate-like member 33, the plate-like member 34, and the surface of the workbench 13, respectively, and accepts a mode selection (S105). However, in the example shown in FIG. 7A, the top display screen IM11a and the middle display screen IM11b are blank.

図7Aに示す例では、「作業習得モード」と「熟練モード」と「デモモード」との3つのモードが最下段の表示画面IM11cに選択可能に表示されている。「作業習得モード」は、表示情報として、作業動画があり、かつ、様々な事項に関する詳細な解説が付された指示情報があるナビゲーション情報を表示するモードである。「熟練モード」は、表示情報として、作業動画がなく、かつ、比較的重要な事項に関する解説のみが付された指示情報があるナビゲーション情報を表示するモードである。「デモモード」は、表示情報として、仮画面のナビゲーションを表示するモードである。S105において、作業者は、最下段の表示画面IM11cに表示された3つのモードのうち、任意のモードに手を翳すことによって、モードを選択する。ここでは、作業者が「作業習得モード」を選択したものとして説明する。 In the example shown in FIG. 7A, three modes, "task learning mode", "expert mode", and "demo mode", are displayed selectably on the bottom display screen IM11c. The "task learning mode" is a mode that displays navigation information including a work video and instruction information with detailed explanations on various matters as display information. The "expert mode" is a mode that displays navigation information including no work video and instruction information with only explanations on relatively important matters as display information. The "demo mode" is a mode that displays a temporary screen navigation as display information. In S105, the worker selects a mode by holding his/her hand over any of the three modes displayed on the bottom display screen IM11c. Here, the explanation is given assuming that the worker selects the "task learning mode".

次に、モードが選択されると、生産ナビゲーションシステム10は、スタート画面として、例えば、図7Bに示す最上段の表示画面IM12aと中段の表示画面IM12bと最下段の表示画面IM12cとを、それぞれ、板状部材33と板状部材34と作業台13の台面とに表示(投影)させる(S110)。 Next, when a mode is selected, the production navigation system 10 displays (projects) as start screens, for example, the top display screen IM12a, the middle display screen IM12b, and the bottom display screen IM12c shown in FIG. 7B, onto the plate-shaped member 33, the plate-shaped member 34, and the surface of the workbench 13, respectively (S110).

図7Bに示す例では、最上段の表示画面IM12aの中に「終了」の表示情報が表示されている。また、最下段の表示画面IM12cの中に「作業ID」と「オーダID」と「進捗%(進捗率)」の表示情報が表示されている。 In the example shown in FIG. 7B, the display information "Finished" is displayed on the top display screen IM12a. Also, the display information "Work ID", "Order ID", and "Progress % (progress rate)" are displayed on the bottom display screen IM12c.

次に、生産ナビゲーションシステム10は、作業者IDとオーダIDの入力を受け付ける(S115,S120)。入力の受け付けは、例えば、作業者がコード入力部19(図2参照)からコードを入力することによって行われる。コードの入力は、例えば、各作業者に付された個人ID、製造する各製品に付された製品ID等を表すバーコード情報が記されたラベルが携帯可能な可搬媒体に貼付されており、ラベルからバーコード情報をコード入力部19(図2参照)で読み取らせることによって行われる。なお、ラベルは、任意のタイミングで作成することができる。また、バーコード情報は、運用に応じて任意の内容のものにすることができる。 Next, the production navigation system 10 accepts input of the worker ID and the order ID (S115, S120). The input is accepted, for example, by the worker inputting a code from the code input unit 19 (see FIG. 2). The code is input, for example, by having a label bearing barcode information representing the personal ID given to each worker and the product ID given to each product to be manufactured, affixed to a portable medium, and having the barcode information read from the label by the code input unit 19 (see FIG. 2). The label can be created at any time. The barcode information can have any content depending on the operation.

次に、生産ナビゲーションシステム10は、最終工程か否かを判定する(S125)。S125の判定で、最終工程でないと判定された場合(“No”の場合)に、生産ナビゲーションシステム10は、部品ナビゲーションを行う(S130)。 Next, the production navigation system 10 judges whether or not the process is the final process (S125). If the judgment in S125 judges that the process is not the final process ("No"), the production navigation system 10 performs part navigation (S130).

部品ナビゲーションは、例えば、図6に示すフローに沿って行われる。
図6に示すように、生産ナビゲーションシステム10は、まず、例えば、図7Cに示す最上段の表示画面IM13aと中段の表示画面IM13bと最下段の表示画面IM13cとを、それぞれ、板状部材33と板状部材34と作業台13の台面とに表示(投影)させて、矢印形状のマークMkで採取すべき部品の位置と数量を表示する(S205)。
The part navigation is performed, for example, along the flow shown in FIG.
As shown in Figure 6, the production navigation system 10 first displays (projects) the top display screen IM13a, the middle display screen IM13b, and the bottom display screen IM13c shown in Figure 7C, respectively, onto the plate-shaped member 33, the plate-shaped member 34, and the surface of the workbench 13, and displays the position and quantity of parts to be collected using arrow-shaped marks Mk (S205).

図7Cに示すように、このとき板状部材34に表示される中段の表示画面IM13bの中には、ナビゲーション情報としてのマークMkが含まれている。図7Cに示す例では、マークMkは、採取する部品41が載置されている部品載置部21(採取口)の位置を指し示す情報(例えば、矢印情報)と、採取する部品41の個数情報(例えば、「×n(個)」)とを表す内容になっている。作業者は、マークMkで指示された部品載置部21(採取口)の中から、マークMkで指示された個数分の部品41を採取する。このとき、好ましくは、作業者は、マークMkで指示された個数分の回数だけ、指示された部品載置部21(採取口)に繰り返し手を入れて部品41を採取するとよい。なお、前記した「採取する部品41が載置されている部品載置部21(採取口)の位置を指し示す情報」の形状は、「矢印情報」に限らず、任意の方向を指す形状であればよく、例えば三角形等の形状を含むものであってもよい。 As shown in FIG. 7C, the middle display screen IM13b displayed on the plate-shaped member 34 at this time includes a mark Mk as navigation information. In the example shown in FIG. 7C, the mark Mk represents information (e.g., arrow information) indicating the position of the part placement unit 21 (collection port) on which the parts 41 to be collected are placed, and information on the number of parts 41 to be collected (e.g., "xn (pieces)"). The worker collects the number of parts 41 indicated by the mark Mk from the part placement unit 21 (collection port) indicated by the mark Mk. At this time, it is preferable that the worker repeatedly puts his/her hand into the indicated part placement unit 21 (collection port) the number of times indicated by the mark Mk to collect the parts 41. Note that the shape of the "information indicating the position of the part placement unit 21 (collection port) on which the parts 41 to be collected are placed" is not limited to "arrow information" and may be any shape that points in any direction, and may include, for example, a triangular shape.

次に、生産ナビゲーションシステム10は、USBカメラ14で撮影された動画像に基づいて、部品41の取り出しを検出し(S210)、取り出された部品41がマークMkで指示された正しいアドレスの部品載置部21(採取口)から採取されたものであるのか否かを判定する(S215)。なお、ここでは、「アドレス」とは、例えば図2に示す棚12における各部品載置部21の配置位置を意味している。 Next, the production navigation system 10 detects the removal of the part 41 based on the video image captured by the USB camera 14 (S210), and determines whether the removed part 41 was picked from the part placement unit 21 (picking port) with the correct address indicated by the mark Mk (S215). Note that "address" here means, for example, the position of each part placement unit 21 on the shelf 12 shown in FIG. 2.

S215の判定で、取り出された部品41が正しいアドレスの部品載置部21(採取口)から採取されたものでないと判定された場合(“No”の場合)に、生産ナビゲーションシステム10は、エラー表示情報を提示する(S220)。 If it is determined in S215 that the removed part 41 was not picked from the part placement section 21 (picking port) with the correct address (if "No"), the production navigation system 10 displays error information (S220).

このとき、生産ナビゲーションシステム10は、例えば、図7Dに示す最上段の表示画面IM14aと中段の表示画面IM14bと最下段の表示画面IM14cとを、それぞれ、板状部材33と板状部材34と作業台13の台面とに表示(投影)させる。図7Dに示す例では、各表示画面IM14a,IM14b,IM14cは、エラー表示情報として、赤色のアラーム画像が全面に表示された内容になっている。作業者は、エラー表示情報に従って、部品41の採取のやり直し動作を行う。部品41の採取のやり直し動作は、S210で採取された部品41を元の部品載置部21に戻して、マークMkで指示された正しいアドレスの部品載置部21(採取口)からマークMkで指示された個数分の部品41を採取することによって行われる。 At this time, the production navigation system 10 displays (projects) the top display screen IM14a, the middle display screen IM14b, and the bottom display screen IM14c shown in FIG. 7D, for example, on the plate-shaped member 33, the plate-shaped member 34, and the surface of the workbench 13. In the example shown in FIG. 7D, each display screen IM14a, IM14b, and IM14c displays a red alarm image on the entire surface as error display information. The worker redoes the collection of the parts 41 in accordance with the error display information. The redoing of the collection of the parts 41 is performed by returning the parts 41 collected in S210 to the original part placement unit 21, and collecting the number of parts 41 indicated by the mark Mk from the part placement unit 21 (collection port) with the correct address indicated by the mark Mk.

次に、生産ナビゲーションシステム10は、USBカメラ14で撮影された動画像に基づいて、部品41の採取のやり直し動作を検出する(S225)。この後、処理はS215に戻る。 Next, the production navigation system 10 detects the re-picking operation of the part 41 based on the video image captured by the USB camera 14 (S225). After this, the process returns to S215.

一方、S215の判定で、取り出された部品41が正しいアドレスの部品載置部21(採取口)から採取されたものであると判定された場合(“Yes”の場合)に、生産ナビゲーションシステム10は、採取された部品41のコード情報や個数情報等をデータベース(蓄積部)に書き込む(S230)。 On the other hand, if it is determined in S215 that the removed part 41 was picked from the part placement section 21 (picking port) with the correct address (if "Yes"), the production navigation system 10 writes the code information, quantity information, etc. of the picked part 41 into the database (storage section) (S230).

次に、生産ナビゲーションシステム10は、採取された部品41の個数がマークMkで指示された個数分の数量に達したか否かを判定する(S235)。S235の判定で、採取された部品41の個数がマークMkで指示された個数分の数量に達していないと判定された場合(“No”の場合)に、処理はS210に戻る。一方、S235の判定で、採取された部品41の個数がマークMkで指示された個数分の数量に達したと判定された場合(“Yes”の場合)に、生産ナビゲーションシステム10は、ナビゲーション情報として、該当する動画や指示書等を表示する(S240)。 Next, the production navigation system 10 judges whether the number of collected parts 41 has reached the number indicated by the mark Mk (S235). If it is judged in S235 that the number of collected parts 41 has not reached the number indicated by the mark Mk (if "No"), the process returns to S210. On the other hand, if it is judged in S235 that the number of collected parts 41 has reached the number indicated by the mark Mk (if "Yes"), the production navigation system 10 displays the relevant video, instruction manual, etc. as navigation information (S240).

このとき、生産ナビゲーションシステム10は、例えば、図7Eに示す最上段の表示画面IM15aと中段の表示画面IM15bと最下段の表示画面IM15cとを、それぞれ、板状部材33と板状部材34と作業台13の台面とに表示(投影)させる。図7Eに示す例では、作業台13の台面に表示される最下段の表示画面IM15cの中に、ナビゲーション情報として、動画や指示書等によって構成された組立ガイダンス情報Guが含まれている。作業者は、組立ガイダンス情報Guに従った、組立作業を行う。この後、処理は図5のS125に戻る。 At this time, the production navigation system 10 displays (projects), for example, the top display screen IM15a, the middle display screen IM15b, and the bottom display screen IM15c shown in FIG. 7E onto the plate-like member 33, the plate-like member 34, and the surface of the workbench 13, respectively. In the example shown in FIG. 7E, the bottom display screen IM15c displayed on the surface of the workbench 13 contains, as navigation information, assembly guidance information Gu composed of videos, instructions, etc. The worker performs assembly work in accordance with the assembly guidance information Gu. After this, the process returns to S125 in FIG. 5.

図5に戻り、S125の判定で、最終工程であると判定された場合(“Yes”の場合)に、生産ナビゲーションシステム10は、終了画面として、図7Fに示す最上段の表示画面IM16aと中段の表示画面IM16bと最下段の表示画面IM16cとを、それぞれ、板状部材33と板状部材34と作業台13の台面とに表示(投影)させて、処理を終了する。 Returning to FIG. 5, if the judgment in S125 judges that the process is the final process (if "Yes"), the production navigation system 10 displays (projects) the top display screen IM16a, the middle display screen IM16b, and the bottom display screen IM16c shown in FIG. 7F as the final screens onto the plate-like member 33, the plate-like member 34, and the surface of the workbench 13, respectively, and ends the process.

このような生産ナビゲーションシステム10では、制御装置11は、作業者の手の検出情報に応じて、表示情報を決定する構成になっている。また、制御装置11は、手を入れるべき部品載置部21(採取口)を間違った場合に、エラー表示情報を提示する構成になっている。 In this type of production navigation system 10, the control device 11 is configured to determine the display information according to the detection information of the worker's hands. In addition, the control device 11 is configured to present error display information if the worker inserts his or her hand into the wrong part placement section 21 (collection port).

図8は、表示情報を板状部材33,34に投影した例を示している。図示例では、組立作業について解説する組立ガイダンス情報Guが板状部材33に投影され、また、採取する部品の採取口を指し示すマークMkが板状部材34に投影されている。なお、マークMkは、板状部材33に投影することもできる。 Figure 8 shows an example of display information projected onto plate-like members 33 and 34. In the illustrated example, assembly guidance information Gu explaining the assembly work is projected onto plate-like member 33, and a mark Mk indicating the collection port for the part to be collected is projected onto plate-like member 34. Note that mark Mk can also be projected onto plate-like member 33.

マークMkは、採取口の場所だけでなく、採取する部品の順番も指し示すことができる。また、マークMkは、採取する部品の名称やコード等も指し示すことができる。また、マークMkは、部品だけでなく、各種の組立ツールの採取口に対しても指し示すことができる。 The mark Mk can indicate not only the location of the collection port, but also the order in which the parts are to be collected. The mark Mk can also indicate the name or code of the parts to be collected. The mark Mk can also indicate not only parts, but also the collection ports of various assembly tools.

図9は、表示情報を作業台13に投影した例を示している。図示例では、組立ガイダンス情報Guが作業台13に投影されている。
プロジェクタ31は、表示情報として、例えば、製品の組立作業を表す動画像、マニュアル画像、部品41の個数情報、及び、製品の組立工程情報の中の少なくとも1つ以上を投影することができる。
9 shows an example of display information projected onto the workbench 13. In the illustrated example, assembly guidance information Gu is projected onto the workbench 13.
The projector 31 can project, as the display information, at least one of a moving image showing the assembly work of a product, a manual image, information on the number of parts 41, and information on the assembly process of the product, for example.

図10は、生産ナビゲーションシステム10における手の位置検出動作の概要を示す図である。制御装置11は、例えば、三角法の原理を利用して作業者の手の位置を検出する。具体的には、図10に示すように、制御装置11は、左側のUSBカメラ14aで撮影された左撮影画像と右側のUSBカメラ14bで撮影された右撮影画像とのアンド条件に基づいて、作業者の手の位置を検出する。その際に、制御装置11は、例えば、図11に示す処理で作業者の手の位置を解析する。 Figure 10 is a diagram showing an overview of the hand position detection operation in the production navigation system 10. The control device 11 detects the position of the worker's hands using, for example, the principles of trigonometry. Specifically, as shown in Figure 10, the control device 11 detects the position of the worker's hands based on the AND condition of the left captured image taken by the left USB camera 14a and the right captured image taken by the right USB camera 14b. In doing so, the control device 11 analyzes the position of the worker's hands using, for example, the process shown in Figure 11.

図11は、生産ナビゲーションシステム10の画像解析例を示す図である。図11に示すように、制御装置11(図2参照)は、USBカメラ14で撮影された撮影画像に対して、画像解析する機能を有している。制御装置11は、画像解析を行うことにより、例えば、作業者の手の動きを識別することができる。その結果、制御装置11は、作業者が部品を採取したか否かの情報、採取した部品の個数の情報等についても、識別することができる。 Figure 11 is a diagram showing an example of image analysis by the production navigation system 10. As shown in Figure 11, the control device 11 (see Figure 2) has a function of performing image analysis on images captured by the USB camera 14. By performing image analysis, the control device 11 can, for example, identify the hand movements of the worker. As a result, the control device 11 can also identify information such as whether the worker has picked up a part and the number of parts picked up.

以下、図11を参照して、画像解析例につき説明する。なお、生産ナビゲーションシステム10は、作業者の手と背景とを区別するために、背景となる部位の色(例えば、板状部材33,34、作業台13の台面、仕切板22等の色)を白色系の色にしている。これにより、制御装置11は、作業者の手の位置を好適に検出することができる。 An example of image analysis will be described below with reference to FIG. 11. Note that in order to distinguish the worker's hands from the background, the production navigation system 10 uses a white-based color for the background (e.g., the plate-like members 33, 34, the surface of the workbench 13, the partition plate 22, etc.). This allows the control device 11 to suitably detect the position of the worker's hands.

まず、図11(a)に示すように、制御装置11は、USBカメラ14によって撮影されたマスタ画像を事前に取得しておく。マスタ画像は、作業者が映っていない画像である。マスタ画像は、棚12の任意の部位に対応して予め複数用意されている。
次に、図11(b)に示すように、制御装置11は、組立作業が開始されると、USBカメラ14から作業中の画像を取得する。なお、図11(b)中、破線領域は図11(a)のマスタ画像が取得された領域を表している。
次に、図11(c)に示すように、作業中の画像(図11(b)参照)の中から作業者の手の画像を抽出する。
11A, the control device 11 acquires in advance a master image captured by the USB camera 14. The master image is an image in which the worker is not captured. A plurality of master images are prepared in advance corresponding to arbitrary portions of the shelf 12.
Next, as shown in Fig. 11(b), when the assembly work is started, the control device 11 acquires an image of the work in progress from the USB camera 14. Note that in Fig. 11(b), the dashed line area indicates the area from which the master image in Fig. 11(a) was acquired.
Next, as shown in FIG. 11(c), an image of the worker's hands is extracted from the image of the worker in action (see FIG. 11(b)).

次に、図11(d)に示すように、制御装置11は、抽出された作業者の手の画像(図11(c)参照)に対して2値化処理を行う。
次に、図11(e)に示すように、制御装置11は、2値化処理後の画像(図11(d)参照)とマスタ画像(図11(a)参照)とでマッチング処理を行い、得られた画像からノイズ(板状部材34と重なる部分)を削除し、その後に、得られた画像から作業者の手の重心箇所を検出する。
この後、図11(f)に示すように、制御装置11は、検出された作業者の手の重心箇所(図11(e)参照)に基づいて、作業者の手が入っている部品載置部21(採取口)の位置を検出する。
Next, as shown in FIG. 11(d), the control device 11 performs a binarization process on the extracted image of the worker's hand (see FIG. 11(c)).
Next, as shown in FIG. 11(e), the control device 11 performs a matching process between the image after the binarization process (see FIG. 11(d)) and the master image (see FIG. 11(a)), removes noise (the part overlapping with the plate-like member 34) from the obtained image, and then detects the center of gravity of the worker's hand from the obtained image.
After that, as shown in Figure 11 (f), the control device 11 detects the position of the part placement section 21 (collection port) in which the worker's hand is placed, based on the detected center of gravity of the worker's hand (see Figure 11 (e)).

図12は、生産ナビゲーションシステム10における手の位置検出時の確定手順を示す図である。制御装置11は、棚12に設けられた個々の部品載置部21に対応して左右方向(横方向)と上下方向(縦方向)のマスを設定し、各マスに対する作業者の手の位置に応じて、各マスにおける手の位置を確定する。例えば、本実施形態では、棚12は、左右方向(横方向)に6列、上下方向(縦方向)に4段の部品載置部21を備えている(図2参照)。したがって、制御装置11は、左右方向(横方向)に6列、上下方向(縦方向)に4段のマスを設定する。 Figure 12 is a diagram showing the determination procedure when detecting the hand position in the production navigation system 10. The control device 11 sets squares in the left-right (horizontal) and up-down (vertical) directions corresponding to each part placement section 21 provided on the shelf 12, and determines the hand position in each square according to the position of the worker's hand relative to each square. For example, in this embodiment, the shelf 12 has six columns of part placement sections 21 in the left-right (horizontal) direction and four rows in the up-down (vertical) direction (see Figure 2). Therefore, the control device 11 sets six columns of squares in the left-right (horizontal) direction and four rows in the up-down (vertical) direction.

そして、制御装置11は、図12の画像Ph14aのように、図11に示す処理を経て、左側のUSBカメラ14aで撮影された左撮影画像から作業者の手の位置が検出されたマスに対して、マーク(図示例では黒点)を付加する。同様に、制御装置11は、図12の画像Ph14bのように、図11に示す処理を経て、右側のUSBカメラ14bで撮影された左撮影画像から作業者の手の位置が検出されたマスに対して、マーク(図示例では黒点)を付加する。そして、制御装置11は、画像Ph14aと画像Ph14bとをアンド条件に基づいて、作業者の手(つまり、作業者の手が入っている部品載置部21(採取口))の位置を確定する。 Then, as in image Ph14a in FIG. 12, the control device 11 adds a mark (a black dot in the illustrated example) to the square where the position of the worker's hand is detected from the left image captured by the left USB camera 14a through the process shown in FIG. 11. Similarly, as in image Ph14b in FIG. 12, the control device 11 adds a mark (a black dot in the illustrated example) to the square where the position of the worker's hand is detected from the left image captured by the right USB camera 14b through the process shown in FIG. 11. Then, the control device 11 determines the position of the worker's hand (i.e., the part placement section 21 (collection port) where the worker's hand is placed) based on the AND condition between images Ph14a and Ph14b.

なお、制御装置11は、良好な画像解析を実現するために、複数種類(例えば2種類)のフィルタを使用して画像解析を行っている。
図13は、肌の色用のフィルタ設定例を示している。図13(a)は、採取口に挿入されかけている作業者の手の撮影画像とその撮影画像に対するフィルタ設定例を示している。図13(b)は、女性の手や男性の手の撮影画像例を示している。例えば、制御装置11は、肌の色を識別するために、青色のフィルタを使用する。フィルタは、図13(b)に写っている手が識別できるように、所望の階調値に設定される。
In order to achieve good image analysis, the control device 11 performs image analysis using multiple types of filters (for example, two types).
Fig. 13 shows an example of filter settings for skin color. Fig. 13(a) shows a captured image of an operator's hand being inserted into a collection port and an example of filter settings for the captured image. Fig. 13(b) shows example captured images of a woman's hand and a man's hand. For example, the control device 11 uses a blue filter to identify skin color. The filter is set to a desired gradation value so that the hand shown in Fig. 13(b) can be identified.

図14は、作業着の色用のフィルタ設定例を示している。図14(a)は、採取口に挿入されかけている作業者の手の撮影画像とその撮影画像に対するフィルタ設定例を示している。図14(b)は、女性用の作業着や男性用の作業着の撮影画像例を示している。ここでは、女性用の作業着の色が、黄色と薄緑色、又は、黄色と濃緑色になっており、一方、男性用の作業着の色が黒色と濃緑色になっているものとして説明する。この場合に、制御装置11は、作業着の色を識別するために、赤色のフィルタを使用する。フィルタは、図14(b)に写っている作業着が識別できるように、所望の階調値に設定される。 Figure 14 shows an example of filter settings for the color of work clothes. Figure 14 (a) shows a captured image of a worker's hand being inserted into a collection port and an example of filter settings for the captured image. Figure 14 (b) shows example captured images of women's work clothes and men's work clothes. Here, the colors of women's work clothes are yellow and light green, or yellow and dark green, while the colors of men's work clothes are black and dark green. In this case, the control device 11 uses a red filter to identify the color of the work clothes. The filter is set to the desired gradation value so that the work clothes shown in Figure 14 (b) can be identified.

作業者の肌の色又は作業服の色に応じて使用するフィルタを自動調節(設定)するようにしてもよい。 The filter to be used may be automatically adjusted (set) according to the worker's skin color or the color of his or her work clothes.

図15は、生産ナビゲーションシステム10の画像解析時の動作を示すフローチャートである。
図15に示すように、制御装置11は、左側のUSBカメラ14aで撮影された左撮影画像に対して、S305~S350の処理を行う。また、制御装置11は、S305~S350の処理と並行して、右側のUSBカメラ14bで撮影された右撮影画像に対して、S405~S450の処理を行う。
FIG. 15 is a flowchart showing the operation of the production navigation system 10 during image analysis.
15, the control device 11 performs the processes of S305 to S350 on the left photographed image captured by the left USB camera 14a. In parallel with the processes of S305 to S350, the control device 11 performs the processes of S405 to S450 on the right photographed image captured by the right USB camera 14b.

具体的には、制御装置11は、左撮影画像を取得し(S305)、左撮影画像から不要画像(作業者の手でない部分の画像)を削除する(S310)。そして、制御装置11は、左カメラ画像に対して赤フィルタでマスクして(S322)、得られた画像に対して2値化を行い(S324)、マスタ画像との差分を抽出し(S326)、得られた画像からノイズ(板状部材34と重なる部分)を削除する(S328)。同様に、制御装置11は、左撮影画像に対して青フィルタでマスクして(S332)、得られた画像に対して2値化を行い(S334)、マスタ画像との差分を抽出し(S336)、得られた画像からノイズ(板状部材34と重なる部分)を削除する(S338)。この後、制御装置11は、赤フィルタをかけて得られた画像と青フィルタをかけて得られた画像とを結合し(S340)、得られた画像から作業者の手の重心位置を検出し(S345)、手が入っている採取口の位置を判定する(S350)。 Specifically, the control device 11 acquires the left photographed image (S305) and deletes unnecessary images (images of parts other than the worker's hand) from the left photographed image (S310). Then, the control device 11 masks the left camera image with a red filter (S322), binarizes the obtained image (S324), extracts the difference from the master image (S326), and deletes noise (parts overlapping with the plate-like member 34) from the obtained image (S328). Similarly, the control device 11 masks the left photographed image with a blue filter (S332), binarizes the obtained image (S334), extracts the difference from the master image (S336), and deletes noise (parts overlapping with the plate-like member 34) from the obtained image (S338). After this, the control device 11 combines the image obtained by applying the red filter and the image obtained by applying the blue filter (S340), detects the center of gravity of the worker's hand from the obtained image (S345), and determines the position of the collection port where the hand is inserted (S350).

また、制御装置11は、右撮影画像を取得し(S405)、右撮影画像から不要画像(作業者の手でない部分の画像)を削除する(S410)。そして、制御装置11は、右カメラ画像に対して赤フィルタでマスクして(S422)、得られた画像に対して2値化を行い(S424)、マスタ画像との差分を抽出し(S426)、得られた画像からノイズ(板状部材34と重なる部分)を削除する(S428)。同様に、制御装置11は、左撮影画像に対して青フィルタでマスクして(S432)、得られた画像に対して2値化を行い(S434)、マスタ画像との差分を抽出し(S436)、得られた画像からノイズ(板状部材34と重なる部分)を削除する(S438)。この後、制御装置11は、赤フィルタをかけて得られた画像と青フィルタをかけて得られた画像とを結合し(S440)、得られた画像から作業者の手の重心位置を検出し(S445)、手が入っている採取口の位置を判定する(S450)。 The control device 11 also acquires a right-hand image (S405) and deletes unnecessary images (images of parts other than the worker's hand) from the right-hand image (S410). Then, the control device 11 masks the right camera image with a red filter (S422), binarizes the obtained image (S424), extracts the difference from the master image (S426), and deletes noise (parts overlapping with the plate-shaped member 34) from the obtained image (S428). Similarly, the control device 11 masks the left-hand image with a blue filter (S432), binarizes the obtained image (S434), extracts the difference from the master image (S436), and deletes noise (parts overlapping with the plate-shaped member 34) from the obtained image (S438). After this, the control device 11 combines the image obtained by applying the red filter and the image obtained by applying the blue filter (S440), detects the center of gravity of the worker's hand from the obtained image (S445), and determines the position of the collection port where the hand is inserted (S450).

この後、制御装置11は、判定結果が同じ採取口であれば、採取口の位置をデータベースに書き込む(S500)。このようにして、制御装置11は、画像解析を行う。 After this, if the determination result is the same collection port, the control device 11 writes the position of the collection port into the database (S500). In this way, the control device 11 performs image analysis.

生産ナビゲーションシステム10の制御装置11は、製品の組立作業時に取得された作業データを蓄積部73に蓄積し、蓄積された作業データに基づいて管理部71で作業実績を管理し、表示情報作成部72で作業実績を表す表示情報を任意のタイミングで作成するデータ管理動作を行うことができる。その際に、管理部71は、コード入力部19から入力されたコードに基づいて作業データと作業実績とを管理することができる。また、管理部71は、中間製造物である半製品に対して任意のタイミングで半製品コードを付与し、作業データと最終製造物である完成品に対して付与された完成品コードと半製品コードとを関連付けて、蓄積部73の管理情報ファイルに登録することができる。 The control device 11 of the production navigation system 10 can perform data management operations such as storing work data acquired during product assembly work in the storage unit 73, managing work results in the management unit 71 based on the stored work data, and creating display information representing the work results at any time in the display information creation unit 72. At that time, the management unit 71 can manage the work data and work results based on the code input from the code input unit 19. The management unit 71 can also assign semi-finished product codes to semi-finished products, which are intermediate products, at any time, and register the work data in the management information file of the storage unit 73 by associating it with the finished product code and semi-finished product code assigned to the finished product, which is the final product.

以下、図16を参照して、このような処理を実現するための生産ナビゲーションシステム10のデータ管理動作につき説明する。図16は、生産ナビゲーションシステム10のデータ管理動作を示すフローチャートである。 The data management operation of the production navigation system 10 to realize such processing will be described below with reference to FIG. 16. FIG. 16 is a flowchart showing the data management operation of the production navigation system 10.

図16に示すように、生産ナビゲーションシステム10の制御装置11は、作業の開始か否かを判定し(S605)、開始と判定された場合(“Yes”の場合)に、作業データの蓄積を開始する(S610)。 As shown in FIG. 16, the control device 11 of the production navigation system 10 determines whether work has started (S605), and if it is determined that work has started ("Yes"), starts accumulating work data (S610).

次に、制御装置11は、半製品コードの付与の指示があるか否かを判定する(S615)。S615の判定で、半製品コードの付与の指示がないと判定された場合(“No”の場合)に、処理はS625に進む。一方、S615の判定で、半製品コードの付与の指示があったと判定された場合(“Yes”の場合)に、制御装置11は、半製品に対して任意の半製品コードを付与し、データベース(蓄積部)11a(図17参照)に格納されている管理情報ファイルD11(図17参照)に登録する(S620)。 Next, the control device 11 determines whether or not there is an instruction to assign a semi-finished product code (S615). If it is determined in S615 that there is no instruction to assign a semi-finished product code (if "No"), the process proceeds to S625. On the other hand, if it is determined in S615 that there is an instruction to assign a semi-finished product code (if "Yes"), the control device 11 assigns an arbitrary semi-finished product code to the semi-finished product and registers it in the management information file D11 (see FIG. 17) stored in the database (storage unit) 11a (see FIG. 17) (S620).

図17は、管理情報ファイルD11の一例を示す図である。図17に示す例では、管理情報ファイルD11は、半製品コード、作業者ID、オーダID、ステーションID、作業日、開始時刻、終了時刻、経過時間、完成品コード等の情報が登録されるようになっている。 Figure 17 is a diagram showing an example of a management information file D11. In the example shown in Figure 17, the management information file D11 is configured to register information such as a semi-finished product code, worker ID, order ID, station ID, work date, start time, end time, elapsed time, and finished product code.

図16に戻り、S615の判定で“No”の場合、又は、S620の後に、制御装置11は、作業実績の表示指示があるか否かを判定する(S625)。S625の判定で、作業実績の表示指示がないと判定された場合(“No”の場合)に、処理はS635に進む。一方、S625の判定で、作業実績の表示指示があったと判定された場合(“Yes”の場合)に、制御装置11は、作業実績を分析して、作業実績の分析結果をディスプレイ16に表示させる(S630)。 Returning to FIG. 16, if the determination in S615 is "No" or after S620, the control device 11 determines whether or not there is an instruction to display the work results (S625). If it is determined in S625 that there is no instruction to display the work results (if "No"), the process proceeds to S635. On the other hand, if it is determined in S625 that there is an instruction to display the work results (if "Yes"), the control device 11 analyzes the work results and displays the analysis results of the work results on the display 16 (S630).

S625の判定で“No”の場合、又は、S630の後に、制御装置11は、作業終了の指示があるか否かを判定する(S635)。S635の判定で、作業終了の指示がないと判定された場合(“No”の場合)に、処理はS615に戻る。一方、S635の判定で、作業終了の指示があったと判定された場合(“Yes”の場合)に、制御装置11は、作業データの蓄積を終了し(S640)、作業実績分析・終了画面IM41(図21参照)をディスプレイ16に表示させる(S645)。これにより、一連のルーチンの処理が終了する。 If the determination in S625 is "No" or after S630, the control device 11 determines whether or not an instruction to end the work has been given (S635). If the determination in S635 determines that an instruction to end the work has not been given (if "No"), the process returns to S615. On the other hand, if the determination in S635 determines that an instruction to end the work has been given (if "Yes"), the control device 11 ends the accumulation of work data (S640) and causes the work performance analysis/end screen IM41 (see FIG. 21) to be displayed on the display 16 (S645). This ends the processing of the series of routines.

このような生産ナビゲーションシステム10は、部品の採取を良好に検出することができる。なお、生産ナビゲーションシステム10は、手の動作だけでなく、部品を検出することによって、部品の採取を検出することもできる。また、生産ナビゲーションシステム10は、作業者が一度に複数の部品を採取したことも検出することもできる。 Such a production navigation system 10 can effectively detect the picking up of parts. The production navigation system 10 can also detect the picking up of parts by detecting parts, not just hand movements. The production navigation system 10 can also detect when a worker has picked up multiple parts at once.

このような生産ナビゲーションシステム10は、作業者が部品を実際に採取していなくても、採取したと判断されることを防止することができる。また、生産ナビゲーションシステム10は、部品の取り間違えを検出した場合に、スピーカ18からアラーム音を報音したり、アラーム表示を板状部材33,34に提示したりすることにより、取り違えを指摘することができる。 Such a production navigation system 10 can prevent a worker from judging that he or she has picked a part even if he or she has not actually picked a part. Furthermore, if the production navigation system 10 detects that a part has been picked incorrectly, it can point out the mistake by sounding an alarm from the speaker 18 or displaying an alarm on the plate-like members 33 and 34.

また、生産ナビゲーションシステム10の制御装置11は、例えば、図18に示すメイン画面IM20の項目BT11~BT15に対応する作業実績の分析結果IM21~IM25(図19A乃至図19E参照)をディスプレイ16に表示することができる。図18は、メイン画面IM20の一例を示す図である。図19A乃至図19Eは、それぞれ、作業実績の分析結果の画面IM21~IM25の一例を示す図である。 The control device 11 of the production navigation system 10 can also display, for example, analysis results IM21 to IM25 (see Figures 19A to 19E) of work performance that correspond to items BT11 to BT15 of the main screen IM20 shown in Figure 18 on the display 16. Figure 18 is a diagram showing an example of the main screen IM20. Figures 19A to 19E are respectively diagrams showing examples of screens IM21 to IM25 of the analysis results of work performance.

図18に示す例では、メイン画面IM20は、項目BT11~BT15を含む内容になっている。「項目BT11」は生産状況の表示を指定する欄である。「項目BT12」は作業実績の対象として指定された対象作業者のオーダID毎の生産実績の表示を指定する欄である。「項目BT13」は対象作業者と熟練者との作業内容の比較結果の表示を指定する欄である。「項目BT14」は対象作業者の日別の作業実績の表示を指定する欄である。「項目BT15」は対象作業者の工程別の作業実績の表示を指定する欄である。対象作業者は、特に人物を指定しなければ、現在の作業現場(作業ステーション)で作業中の人物となる。ただし、生産ナビゲーションシステム10は、コード入力部19(図2参照)やキーボード等で任意の人物のIDコードを入力することにより、その人物を対象作業者として指定することもできる。 In the example shown in FIG. 18, the main screen IM20 contains items BT11 to BT15. "Item BT11" is a field for specifying the display of production status. "Item BT12" is a field for specifying the display of production results for each order ID of the target worker specified as the target of work results. "Item BT13" is a field for specifying the display of the results of comparing the work content of the target worker with that of an experienced worker. "Item BT14" is a field for specifying the display of the target worker's work results by day. "Item BT15" is a field for specifying the display of the target worker's work results by process. If no person is specified as the target worker, the person working at the current work site (work station) will be used. However, the production navigation system 10 can also specify any person as the target worker by inputting the ID code of that person using the code input unit 19 (see FIG. 2) or a keyboard, etc.

メイン画面IM20は、例えば、タッチパネルディスプレイによって構成されたディスプレイ16aに表示される。生産ナビゲーションシステム10は、例えば、ディスプレイ16aで項目BT11~BT15の中のいずれかの項目が指定されると、指定された項目に対応する作業実績の分析結果の画面をディスプレイ16bに表示する。 The main screen IM20 is displayed on the display 16a, which is, for example, a touch panel display. When, for example, one of items BT11 to BT15 is specified on the display 16a, the production navigation system 10 displays a screen showing the analysis results of the work performance corresponding to the specified item on the display 16b.

例えば、図18の「項目BT11」が指定された場合に、生産ナビゲーションシステム10は、図19Aに示す画面IM21をディスプレイ16bに表示する。画面IM21は、生産状況の作業実績を表している。図19Aに示す例では、画面IM21は、「本日の目標数」、「予定」台数、「実績」台数、「差異」台数を含む内容になっている。 For example, when "item BT11" in FIG. 18 is specified, the production navigation system 10 displays screen IM21 shown in FIG. 19A on the display 16b. Screen IM21 shows the work results of the production status. In the example shown in FIG. 19A, screen IM21 contains the contents of "Today's target number," "Planned" number, "Actual" number, and "Difference" number.

また、例えば、図18の「項目BT12」が指定された場合に、生産ナビゲーションシステム10は、図19Bに示す画面IM22をディスプレイ16bに表示する。画面IM22は、対象作業者のオーダID毎の生産実績を棒グラフデータで表している。図中、横軸は製品のオーダIDを示しており、縦軸は生産時間(秒)を示している。 For example, when "item BT12" in FIG. 18 is selected, the production navigation system 10 displays screen IM22 shown in FIG. 19B on the display 16b. Screen IM22 shows the production results for each order ID of the target worker as bar graph data. In the figure, the horizontal axis indicates the product order ID, and the vertical axis indicates the production time (seconds).

また、例えば、図18の「項目BT13」が指定された場合に、生産ナビゲーションシステム10は、図19Cに示す画面IM23をディスプレイ16bに表示する。画面IM23は、対象作業者(比較者)と熟練者との作業内容の比較結果を表している。画面IM23は、USBカメラ14a,14bで撮影された対象作業者(比較者)の作業中の動画像と事前に用意された熟練者の作業中の動画像とを対比させながら表示する内容になっている。図19C中、比較者側の4つの四角形部分は、対象作業者(比較者)の作業中の動画像が表示される領域である。また、熟練者側の4つの四角形部分は、熟練者の作業中の動画像が表示される領域である。また、各動画像が表示される領域の右側には、3段のマスの画像が配置されている。最上段のマスの画像は、左撮影画像(左側のUSBカメラ14aで撮影された画像)から検出された手の位置を表している。最下段のマスの画像は、右撮影画像(右側のUSBカメラ14bで撮影された画像)から検出された手の位置を表している。中段のマスの画像は、左撮影画像から検出された手の位置と右撮影画像から検出された手の位置とのアンド条件に基づいて確定された作業者の手の位置を表している。 For example, when "item BT13" in FIG. 18 is specified, the production navigation system 10 displays the screen IM23 shown in FIG. 19C on the display 16b. The screen IM23 shows the result of comparing the work content of the target worker (comparator) and the skilled worker. The screen IM23 shows a comparison between the moving image of the target worker (comparator) working, captured by the USB cameras 14a and 14b, and the moving image of the skilled worker working, which was prepared in advance. In FIG. 19C, the four rectangular parts on the comparator side are areas where the moving image of the target worker (comparator) working is displayed. The four rectangular parts on the skilled worker side are areas where the moving image of the skilled worker working is displayed. In addition, three rows of square images are arranged on the right side of the area where each moving image is displayed. The image in the top row of squares shows the position of the hand detected from the left captured image (image captured by the left USB camera 14a). The image in the bottom square represents the hand position detected from the right captured image (image captured by the right USB camera 14b). The image in the middle square represents the worker's hand position determined based on the AND condition between the hand position detected from the left captured image and the hand position detected from the right captured image.

また、例えば、図18の「項目BT14」が指定された場合に、生産ナビゲーションシステム10は、図19Dに示す画面IM24をディスプレイ16bに表示する。画面IM24は、対象作業者の日別の作業実績を棒グラフデータで表している。図中、横軸は日付を示しており、縦軸は生産時間(分)を示している。棒グラフデータは、製品の組立作業の各工程を表す工程情報と、各工程に要した時間情報とが含まれたデータである。各棒グラフデータは、対象作業者が生産したある製品の最小作業時間と最大作業時間との幅を表している。各棒グラフデータの中の四角形は、最小作業時間と最大作業時間の平均値を表している。棒グラフの長さが長い工程ほど、工程時間のバラツキが大きい工程であることを示している。 For example, when "item BT14" in FIG. 18 is specified, the production navigation system 10 displays screen IM24 shown in FIG. 19D on the display 16b. Screen IM24 shows the daily work performance of the target worker as bar graph data. In the figure, the horizontal axis shows the date, and the vertical axis shows the production time (minutes). The bar graph data is data that includes process information that shows each process of the product assembly work, and information on the time required for each process. Each bar graph data represents the range between the minimum and maximum work times for a certain product produced by the target worker. The rectangles in each bar graph data represent the average value of the minimum and maximum work times. The longer the bar graph, the greater the variation in process time for that process.

また、例えば、図18の「項目BT15」が指定された場合に、生産ナビゲーションシステム10は、図19Eに示す画面IM25をディスプレイ16bに表示する。画面IM25は、対象作業者の工程別の作業実績を棒グラフデータで表している。図中、横軸は工程番号を示しており、縦軸は生産時間(秒)を示している。各棒グラフデータは、対象作業者が生産したある製品の最小作業時間と最大作業時間との幅を表している。各棒グラフデータの中の2つの四角形は、一方が最小作業時間と最大作業時間の平均値で、他方が前回の作業時間を表している。棒グラフの長さが長い工程ほど、工程時間のバラツキが大きい工程であることを示している。 For example, when "item BT15" in FIG. 18 is specified, the production navigation system 10 displays screen IM25 shown in FIG. 19E on the display 16b. Screen IM25 shows the work performance of the target worker by process as bar graph data. In the figure, the horizontal axis shows the process number, and the vertical axis shows the production time (seconds). Each bar graph data represents the range between the minimum and maximum work times for a certain product produced by the target worker. One of the two rectangles in each bar graph data represents the average of the minimum and maximum work times, and the other represents the previous work time. The longer the bar graph, the greater the variation in process time for that process.

制御装置11は、画面IM24(図19D)や画面IM25(図19E)のグラフデータを、半製品毎に作成してディスプレイ16bに表示することができる。また、制御装置11は、グラフデータを、作業者毎に作成してディスプレイ16bに表示することもできる。管理者等は、グラフデータを参照することにより、どの工程に時間がかかっているのかを把握することができる。 The control device 11 can create graph data for screen IM24 (FIG. 19D) or screen IM25 (FIG. 19E) for each semi-finished product and display it on the display 16b. The control device 11 can also create graph data for each worker and display it on the display 16b. By referring to the graph data, managers can understand which process is taking the most time.

なお、生産ナビゲーションシステム10の制御装置11によって行われた作業実績の分析結果は、サポートシステム60のデータ収集装置61(図1参照)に提供される。その結果、作業実績の分析結果は、生産ナビゲーションシステム10の制御装置11に限らず、サポートシステム60(図1参照)を構成するデータ収集装置61やデータ処理装置62、サポート装置63等でも閲覧することができる。 The results of the analysis of work performance performed by the control device 11 of the production navigation system 10 are provided to the data collection device 61 (see FIG. 1) of the support system 60. As a result, the results of the analysis of work performance can be viewed not only by the control device 11 of the production navigation system 10, but also by the data collection device 61, data processing device 62, support device 63, etc. that constitute the support system 60 (see FIG. 1).

また、生産ナビゲーションシステム10の制御装置11は、製品の組立作業時にモーションキャプチャカメラ20で撮影された作業者の動画像に基づいて、作業者の動作を分析することができる。例えば、図20に示すように、生産ナビゲーションシステム10の制御装置11の表示情報作成部72は、製品の組立作業時にモーションキャプチャカメラ20で撮影された作業者の動画像に基づいて、作業者の手の移動距離を特定して、表示情報として、図20に示す線グラフデータを作成することができる。図20は、作業者の動作を分析した結果としての動作分析画面IM31の一例を示す図である。図20中、線グラフデータは、動画像のフレーム情報と作業者の頭や手の移動距離情報との相関関係を表している。動作分析画面IM31は、例えば、ディスプレイ16bに表示される。 The control device 11 of the production navigation system 10 can also analyze the movements of the worker based on the video of the worker captured by the motion capture camera 20 during product assembly work. For example, as shown in FIG. 20, the display information creation unit 72 of the control device 11 of the production navigation system 10 can identify the movement distance of the worker's hands based on the video of the worker captured by the motion capture camera 20 during product assembly work, and create the line graph data shown in FIG. 20 as display information. FIG. 20 is a diagram showing an example of a movement analysis screen IM31 as a result of analyzing the movements of the worker. In FIG. 20, the line graph data represents the correlation between frame information of the video and movement distance information of the worker's head and hands. The movement analysis screen IM31 is displayed, for example, on the display 16b.

図20に示す例では、動作分析画面IM31は、動画像を表示する動画像表示部Mo1と、動画像の作動を指示するコマンドを表示するコマンド部Co1と、線グラフデータを表示するグラフ表示部Gr1とを含む内容になっている。動画像表示部Mo1中の動画像には、作業者の動線や顔の向き等の解析結果を表す小円形状の付加情報が表示されている。また、グラフ表示部Gr1中の線グラフデータは、横軸が動画像のフレーム数を示しており、縦軸が頭や手の移動距離を示している。また、グラフ表示部Gr1中の縦線は各工程の区切り部分を示しており、番号は工程番号を表している。 In the example shown in FIG. 20, the motion analysis screen IM31 includes a video display section Mo1 that displays video, a command section Co1 that displays commands that instruct the operation of the video, and a graph display section Gr1 that displays line graph data. The video in the video display section Mo1 displays additional information in the form of small circles that show the analysis results of the worker's movement line and facial direction, etc. The line graph data in the graph display section Gr1 has the horizontal axis indicating the number of frames of the video, and the vertical axis indicating the distance traveled by the head and hands. The vertical lines in the graph display section Gr1 indicate the divisions between each process, and the numbers indicate the process numbers.

なお、図20に示す動作分析画面IM31のような作業者の動作の分析は、生産ナビゲーションシステム10の制御装置11に限らず、サポートシステム60(図1参照)を構成するデータ収集装置61やデータ処理装置62、サポート装置63等でも行うことができる。 In addition, analysis of the worker's movements, such as the movement analysis screen IM31 shown in FIG. 20, can be performed not only by the control device 11 of the production navigation system 10, but also by the data collection device 61, data processing device 62, support device 63, etc. that constitute the support system 60 (see FIG. 1).

また、生産ナビゲーションシステム10の制御装置11は、管理情報ファイルD11(図17参照)に基づいて、経過時間等を表す画面(例えば、終了画面IM41(図21参照))を作成することができる。図21は、終了画面IM41の一例を示す図である。図21に示す例では、終了画面IM41は、標準時間を表す標準時間欄、生産率を表す生産性欄、経過時間を表す経過時間欄、開始時刻を表す開始時刻欄、終了時刻を表す終了時刻欄を含む内容になっている。 The control device 11 of the production navigation system 10 can also create a screen (for example, an end screen IM41 (see FIG. 21)) that displays elapsed time, etc., based on the management information file D11 (see FIG. 17). FIG. 21 is a diagram showing an example of the end screen IM41. In the example shown in FIG. 21, the end screen IM41 includes a standard time column that displays the standard time, a productivity column that displays the production rate, an elapsed time column that displays the elapsed time, a start time column that displays the start time, and an end time column that displays the end time.

<生産ナビゲーションシステムの主な機能>
生産ナビゲーションシステム10は、制御機能、画像(動画像)の撮影(キャプチャ)機能、音声認識機能、音声指示機能を有している。
生産ナビゲーションシステム10は、ガイダンス機能、部品の採取(ピッキング)中の画像の取得機能及びその判定機能、部品の取付中の画像取得機能及びその判定機能、作業動線の取得機能及びその解析機能等を有している。
生産ナビゲーションシステム10は、撮影された画像(動画像)情報や入力された音声情報等をサポートシステム60のデータ収集装置61に出力して、これらの情報をビッグデータとしてデータ処理装置62やサポート装置(PC)63に解析処理させることができる。
生産ナビゲーションシステム10は、画像解析機能や音声認識機能を後から拡張することができる。
生産ナビゲーションシステム10は、様々な情報を作業者に提示することにより、組立作業を誘導することができる。
生産ナビゲーションシステム10は、作業者が採取した部品の種類や個数、作業者が行った作業内容等を解析することができる。
生産ナビゲーションシステム10は、アラーム音を報音したりアラーム情報を提示したりすることができる。
図21に示すように、生産ナビゲーションシステム10は、例えば組立終了時や組立処理の途中時等の任意のタイミングで、組立作業の進捗状況等をディスプレイ16に表示することができる。
<Major functions of the production navigation system>
The production navigation system 10 has a control function, an image (moving image) capturing function, a voice recognition function, and a voice instruction function.
The production navigation system 10 has a guidance function, an image acquisition function during part picking and an assessment function for the same, an image acquisition function during part installation and an assessment function for the same, a work flow acquisition function and an analysis function, etc.
The production navigation system 10 can output captured image (video) information, input audio information, etc. to a data collection device 61 of the support system 60, and have this information analyzed and processed as big data by a data processing device 62 or a support device (PC) 63.
The production navigation system 10 can be expanded later with image analysis functions and voice recognition functions.
The production navigation system 10 can guide the worker in the assembly work by presenting various information to the worker.
The production navigation system 10 can analyze the type and number of parts picked by the worker, the work content performed by the worker, and the like.
The production navigation system 10 can sound an alarm and present alarm information.
As shown in FIG. 21, the production navigation system 10 can display the progress of assembly work on the display 16 at any desired timing, such as when assembly is completed or during the assembly process.

<サポートシステムの主な機能>
データ収集装置61は、生産ナビゲーションシステム10の制御装置11から撮影情報や音声情報を取得して保存することができる。管理者等は、データ収集装置61に保存された撮影情報をサポート装置(PC)63で閲覧することにより、遠隔地から生産進捗等の組立作業現場の状況を確認することができる。
<Main functions of the support system>
The data collection device 61 can acquire and store photographic information and audio information from the control device 11 of the production navigation system 10. A manager or the like can view the photographic information stored in the data collection device 61 on a support device (PC) 63 to check the status of the assembly work site, such as the production progress, from a remote location.

<生産ナビゲーションシステムの主な特徴>
(1)プロジェクションマッピングについて
(a)生産ナビゲーションシステム10は、作業者に採取させる部品の位置及び数量を提示(投影)することができる。例えば、生産ナビゲーションシステム10は、採取する部品41が載置されている部品載置部21(採取口)の位置を指し示す矢印情報、部品の個数情報を含む矢印状のマークMk(図8参照)等を投影することができる。これにより、生産ナビゲーションシステム10は、マークMk(図8参照)を一瞥するだけで、どの採取口からいくつの部品41を採取すれば良いのかを作業者に容易に知らせることができる。
(b)生産ナビゲーションシステム10は、USBカメラ14で撮影された作業者の特定部位の位置に応じて、表示機構15に表示させる表示情報を決定することができる。例えば、生産ナビゲーションシステム10は、作業者が部品を採取すると、採取された部品(採取部品)の数に応じて、棚に載置されている部品のカウント数量を自動的に減少させることができる。また、生産ナビゲーションシステム10は、次工程の表示情報を提示(投影)することができる。また、生産ナビゲーションシステム10は、作業者の手が特殊コマンド入力部23(図2参照)等のコマンドの入力位置に翳(かざ)されたときに、入力位置に対応するコマンドに応じて表示情報を決定することができる。
(c)生産ナビゲーションシステム10は、作業者が部品を採取すると、次の部品の位置及び数量を提示(投影)することができる。
(d)生産ナビゲーションシステム10は、手を入れるべき部品載置部21を間違った場合に、エラー表示情報(図7D参照)等の注意喚起情報を提示する。これにより、生産ナビゲーションシステム10は、作業者が部品を取り間違えた場合であっても、注意喚起情報を提示(投影)することができる。
(e)生産ナビゲーションシステム10は、部品の位置毎に、注意喚起情報の提示位置を変えることができる。
(f)生産ナビゲーションシステム10は、プロジェクタ31から、表示情報として、製品の組立作業を表す動画像、マニュアル画像、部品41の個数情報、及び、製品の組立工程情報の中の少なくとも1つ以上を投影することができる。これにより、生産ナビゲーションシステム10は、製品の組立作業を効率よく支援することができる。
(g)プロジェクタ31は、表示情報に補正を施して、矩形に近似した形状で板状部材33,34及び作業台13の台面に投影する。これにより、生産ナビゲーションシステム10は、歪みの少ない視認性の高い表示情報を作業者に提示することができる。
(h)生産ナビゲーションシステム10は、プロジェクタ31から、表示情報として、作業動画があり、かつ、様々な事項に関する詳細な解説が付された指示情報があるナビゲーション情報を表示する作業習得モードと、作業動画がなく、かつ、比較的重要な事項に関する解説のみが付された指示情報があるナビゲーション情報を表示する熟練モードとを選択可能に投影することができる。これにより、生産ナビゲーションシステム10は、製品の組立作業の習得度に合わせてナビゲーションを変更することができる。
(i)プロジェクタ31は、部品載置部21の上方に、表示情報として、採取する部品41が載置されている部品載置部21の位置を指し示す矢印情報を表示(投影)することができる。これにより、プロジェクタ31は、手の検出の邪魔にならない位置に矢印情報を表示(投影)することができる。
(j)生産ナビゲーションシステム10は、板状部材34の数を増やすだけで、表示情報を表示させる部位を容易かつ安価に増やすことができる。
(k)生産ナビゲーションシステム10は、提示(投影)位置に応じて、板状部材34の角度を変えている。下の位置に配置された板状部材34ほど、板状部材34を寝かせた状態にしている。これにより、表示情報の視認性を向上させることができる。
(l)表示情報が投影される板状部材33,34の色は、好ましくは、白色系であるとよい。これにより、表示情報を鮮明に提示(投影)することができ、表示情報の視認性を向上させることができる。
(m)生産ナビゲーションシステム10は、部品の採取及び組立が完了すると、全体工程の何%が完了したのかを、板状部材33,34、ディスプレイ16等に提示することができる。
(n)生産ナビゲーションシステム10は、作業者ID、仮ID、作業の進捗情報、採取する部品の位置、数量、作業手順(イメージ図等を含む)、必要な組立ツール等の情報を投影することができる。
(o)生産ナビゲーションシステム10は、必要部品の採取を検出すると、部品数量を減少させて、部品数量を管理することができる。
(p)生産ナビゲーションシステム10は、必要部品の採取を検出すると、次の部品の位置及び数量を表示情報として提示することができる。
(q)生産ナビゲーションシステム10は、採取を間違えると、注意喚起情報を投影することができる。また、生産ナビゲーションシステム10は、作業者が部品を戻した場合に、それを検出することもできる。
(r)生産ナビゲーションシステム10は、注意喚起情報を提示する場合に、部品の位置に応じて、注意喚起情報を最適な位置に調整して提示することができる。
(s)生産ナビゲーションシステム10は、作業台13の台面を投影部として利用することができる。
(t)生産ナビゲーションシステム10は、部品採取の検知時に次の部品の位置等を作業者に提示することができる。また、生産ナビゲーションシステム10は、所望のタスクに係る作業手順が全て終わった段階で次の部品の位置等を作業者に提示することもできる。
(u)生産ナビゲーションシステム10は、電動ドライバを使用した組立終了後に表示情報の切り替えを行うようにしてもよい。
<Main features of the production navigation system>
(1) Regarding Projection Mapping (a) The production navigation system 10 can present (project) the positions and quantities of parts to be picked by the worker. For example, the production navigation system 10 can project arrow information indicating the position of the part placement section 21 (picking port) on which the parts 41 to be picked are placed, an arrow-shaped mark Mk (see FIG. 8) including information on the number of parts, etc. This allows the production navigation system 10 to easily inform the worker how many parts 41 should be picked from which collection port, simply by glancing at the mark Mk (see FIG. 8).
(b) The production navigation system 10 can determine the display information to be displayed on the display mechanism 15 according to the position of a specific part of the worker photographed by the USB camera 14. For example, when the worker picks up a part, the production navigation system 10 can automatically reduce the count of the parts placed on the shelf according to the number of picked parts (picked parts). The production navigation system 10 can also present (project) display information for the next process. The production navigation system 10 can also determine the display information according to the command corresponding to the input position when the worker's hand is held over a command input position such as the special command input unit 23 (see FIG. 2).
(c) When a worker picks up a part, the production navigation system 10 can present (project) the position and quantity of the next part.
(d) When the worker places his/her hand in the wrong part placement unit 21, the production navigation system 10 displays attention-calling information such as error display information (see FIG. 7D ). This allows the production navigation system 10 to display (project) attention-calling information even when the worker picks up the wrong part.
(e) The production navigation system 10 can change the position at which the attention-calling information is presented depending on the position of each part.
(f) The production navigation system 10 can project, as display information, at least one of a moving image showing the assembly work of the product, a manual image, information on the number of parts 41, and product assembly process information from the projector 31. This allows the production navigation system 10 to efficiently support the assembly work of the product.
(g) The projector 31 corrects the display information and projects it in a shape that approximates a rectangle onto the plate-like members 33, 34 and the surface of the workbench 13. This enables the production navigation system 10 to present the worker with display information that is highly visible and has little distortion.
(h) The production navigation system 10 can selectively project from the projector 31, as display information, a task learning mode that displays navigation information that includes a task video and instruction information with detailed explanations on various matters, and a skilled mode that displays navigation information that does not include a task video and includes instruction information with only explanations on relatively important matters. This allows the production navigation system 10 to change navigation in accordance with the level of mastery of the product assembly task.
(i) The projector 31 can display (project) arrow information indicating the position of the component placement unit 21 on which the component 41 to be picked is placed, as display information, above the component placement unit 21. This allows the projector 31 to display (project) the arrow information at a position that does not interfere with hand detection.
(j) In the production navigation system 10, the number of locations on which display information is displayed can be increased easily and inexpensively by simply increasing the number of plate-like members 34.
(k) The production navigation system 10 changes the angle of the plate-like member 34 depending on the presentation (projection) position. The lower the plate-like member 34 is positioned, the more the plate-like member 34 is laid down. This makes it possible to improve the visibility of the displayed information.
(l) The color of the plate-like members 33, 34 onto which the display information is projected is preferably white or similar. This allows the display information to be clearly presented (projected) and improves the visibility of the display information.
(m) When the collection and assembly of parts is completed, the production navigation system 10 can display on the plate members 33, 34, the display 16, etc., what percentage of the entire process has been completed.
(n) The production navigation system 10 can project information such as worker ID, temporary ID, work progress information, location and quantity of parts to be collected, work procedure (including image diagrams, etc.), required assembly tools, etc.
(o) When the production navigation system 10 detects the collection of necessary parts, it can reduce the part quantity and manage the part quantity.
(p) When the production navigation system 10 detects the collection of a necessary part, it can present the location and quantity of the next part as display information.
(q) If the worker makes a mistake in picking the part, the production navigation system 10 can project warning information. The production navigation system 10 can also detect when the worker returns the part.
(r) When presenting attention-calling information, the production navigation system 10 can adjust the attention-calling information to an optimal position and present it according to the position of the part.
(s) The production navigation system 10 can use the surface of the workbench 13 as a projection unit.
(t) The production navigation system 10 can present the location of the next part to the worker when it detects that a part has been picked up. The production navigation system 10 can also present the location of the next part to the worker when all work procedures related to a desired task have been completed.
(u) The production navigation system 10 may be configured to switch the display information after the assembly using the electric screwdriver is completed.

(2)棚の構成について
(a)棚12には、複数の仕切板22が設けられている。仕切板22は、上部分に傾斜面22aa,22ab,22ac,22ad(図4B参照)又はR面(図示せず)を備える形状になっている。これにより、生産ナビゲーションシステム10は、各仕切板22で隣接する部品載置部21同士を仕切ることができるとともに、作業者の手が部品載置部21に挿入される際の挿入のし易さを確保することができる。
(b)板状部材34は、配置されている高さに応じて、下に配置されるものほど、寝かせた状態(倒れた状態)になるように、傾斜して配置されている(図4B参照)。これにより、生産ナビゲーションシステム10は、ミラー32で反射された表示情報を板状部材33に良好に投影することができる。
(2) Regarding the configuration of the shelves (a) The shelves 12 are provided with a plurality of partition plates 22. The partition plates 22 are shaped to have inclined surfaces 22aa, 22ab, 22ac, 22ad (see FIG. 4B) or an R-surface (not shown) at the upper portion. This allows the production navigation system 10 to separate adjacent part placement sections 21 with each partition plate 22, and also ensures ease of insertion of the worker's hand into the part placement section 21.
(b) The plate-like members 34 are arranged at an incline so that the lower they are arranged, the more they are laid down (fallen down) depending on the height at which they are arranged (see FIG. 4B ). This allows the production navigation system 10 to project the display information reflected by the mirror 32 onto the plate-like members 33 in a good condition.

(3)手の位置の画像解析について
(a)生産ナビゲーションシステム10は、撮影画像に基づいて、任意の画像処理(例えば、画像取得処理、二値化処理、重心検知処理、位置検出処理等)を行うことによって、手の位置の画像解析を行うことができる。
(b)生産ナビゲーションシステム10は、背景となる部位の色(例えば、板状部材33,34、作業台13の台面、仕切板22等の色)を白色系の色にすることによって、手と背景とを識別精度を向上させることができる。
(3) Regarding image analysis of hand position (a) The production navigation system 10 can perform image analysis of the hand position by performing any image processing (e.g., image acquisition processing, binarization processing, center of gravity detection processing, position detection processing, etc.) based on the captured image.
(b) The production navigation system 10 can improve the accuracy of distinguishing between hands and the background by making the colors of the background parts (e.g., the colors of the plate-like members 33, 34, the surface of the workbench 13, the partition board 22, etc.) white-based colors.

(4)画像検出について
(a)生産ナビゲーションシステム10は、環境(外部の明るさ)の変化があっても、良好に画像判定を行うことができる。
(b)生産ナビゲーションシステム10は、服装の違いによる検出精度の低下(例えば、白っぽい服の検出精度の低下)を抑制することができる。
(c)生産ナビゲーションシステム10は、撮影画像の解析により、斜め方向から採取口に手を挿入した場合であっても、手の位置を正確に検出することができる。
(d)生産ナビゲーションシステム10は、撮影画像の解析により、採取口に対する作業者の手の挿入量(奥行き方向の移動量)を識別することができる。
(e)生産ナビゲーションシステム10は、画像解析プログラムとして、市販の汎用プログラムを使用することができる。
(4) Image Detection (a) The production navigation system 10 can perform image judgments satisfactorily even if there are changes in the environment (external brightness).
(b) The production navigation system 10 can suppress a decrease in detection accuracy due to differences in clothing (for example, a decrease in detection accuracy for whitish clothing).
(c) The production navigation system 10 can accurately detect the position of the hand by analyzing the captured image, even if the hand is inserted into the collection port from an oblique direction.
(d) The production navigation system 10 can identify the amount of insertion of the worker's hand into the collection port (amount of movement in the depth direction) by analyzing the captured image.
(e) The production navigation system 10 can use a commercially available general-purpose program as the image analysis program.

(5)画像解析について
(a)生産ナビゲーションシステム10は、作業者が部品を取り間違えても、画像解析により取り間違えを検知することができる。この点について、従来技術は、作業者の手が採取口に設けられたセンサを通過したか否かの動作(つまり、作業者の手が採取口に挿入されたか否かの動作)しか識別できなかったため、作業者が部品を実際に採取していなくても、部品が採取されたと誤検出してしまう可能性があった。また、従来技術は、作業者が複数個の部品を採取した場合に、装置がそれを検知することができず、その結果、保管されている部品のカウント数量が誤ってしまう可能性があった。これに対して、本実施形態に係る生産ナビゲーションシステム10は、部品の採取時の動画像を解析することにより、作業者が部品を実際に採取したか否かや作業者がいくつの部品を採取したのか等を識別することができる。その結果、生産ナビゲーションシステム10は、採取されていない部品が採取されたものとして誤検出してしまうことや、保管されている部品のカウント数量を誤ってしまうことを解消することができる。
(b)生産ナビゲーションシステム10は、画像解析により作業者が複数個の部品を採取したことを識別することができる。この点について、従来技術は、例えば、作業者が同じ部品を2個採取する場合に、手を採取口に2回出し入れする必要があった。これに対して、本実施形態に係る生産ナビゲーションシステム10は、作業者が手を採取口に1回出し入れするだけで、2個の部品を採取されたことを識別することができる。
(c)生産ナビゲーションシステム10は、画像解析により部品組立の完了確認を行うことができる。この点について、従来技術は、部品組立が完了したか否かを作業者の申告でしか管理していなかったため、作業者に処理を強いていた。これに対して、本実施形態に係る生産ナビゲーションシステム10は、作業者が申告しなくても、部品組立が完了したか否かを自動的に管理することができる。
(d)生産ナビゲーションシステム10は、複数種類(例えば2種類)のフィルタを使用して画像解析を行う、作業者の肌の色や作業者の作業着等を検出することができる。そして、生産ナビゲーションシステム10は、例えば、撮影画像を2値化処理して、重心箇所(図示例では、人差し指と中指との間の付け根部分)を検出することで、作業者の手の位置を特定することができる。
(5) Image Analysis (a) Even if an operator mistakenly picks up a part, the production navigation system 10 can detect the mistake by image analysis. In this regard, the conventional technology could only identify whether or not the operator's hand passed through the sensor provided at the collection port (i.e., whether or not the operator's hand was inserted into the collection port), so there was a possibility that the operator would erroneously detect that a part had been picked even if the operator had not actually picked up a part. In addition, in the conventional technology, when an operator picks up multiple parts, the device cannot detect this, and as a result, there was a possibility that the count number of stored parts would be incorrect. In contrast, the production navigation system 10 according to this embodiment can identify whether or not the operator actually picked up a part and how many parts the operator picked up, by analyzing the moving image when the parts were picked. As a result, the production navigation system 10 can eliminate the mistaken detection of parts that have not been picked as having been picked and the mistaken count number of stored parts.
(b) The production navigation system 10 can identify that a worker has picked up multiple parts by image analysis. In this regard, in the prior art, for example, when a worker picks up two of the same parts, the worker needs to insert and remove his/her hand into and from the picking opening twice. In contrast, the production navigation system 10 according to the present embodiment can identify that two parts have been picked by the worker simply inserting and removing his/her hand into and from the picking opening once.
(c) The production navigation system 10 can confirm the completion of parts assembly by image analysis. In the prior art, whether or not parts assembly is complete is managed only by the worker's declaration, forcing the worker to perform the process. In contrast, the production navigation system 10 according to the present embodiment can automatically manage whether or not parts assembly is complete, without the worker having to declare it.
(d) The production navigation system 10 performs image analysis using multiple types (e.g., two types) of filters, and can detect the skin color of the worker, the worker's work clothes, etc. The production navigation system 10 can then, for example, binarize the captured image and detect the center of gravity (in the illustrated example, the base of the index finger and middle finger), thereby identifying the position of the worker's hand.

(6)データの一元管理について
(a)サポートシステム60は、データ収集装置61で撮影画像を一括して保存することができる。
(b)サポートシステム60は、データ収集装置61に保存された撮影画像に基づいて、管理者等が各作業現場での作業内容を分析することにより、短期間での作業の改善(例えば、作業時間のバラツキの低減やラインバランスの調整等)を実現することができる。つまり、サポートシステム60は、遠隔地から組立動作等を確認することができる。この点について、従来技術は、例えば、管理者等が組立の作業現場に行って組立動作等を確認する必要があった。これに対して、本実施形態に係る生産ナビゲーションシステム10は、管理者等が組立の作業現場に行かなくても、遠隔地から組立完了等を確認することができる。
(c)サポートシステム60は、遠隔地から作業時間にバラつきのある行程の動作を確認することができる。
(6) Consolidated Data Management (a) The support system 60 can collectively store the captured images in the data collection device 61.
(b) The support system 60 allows a manager or the like to analyze the work content at each work site based on the captured images stored in the data collection device 61, thereby enabling short-term work improvement (for example, reducing the variation in work time and adjusting line balance). In other words, the support system 60 allows the manager or the like to check assembly operations, etc. from a remote location. In this regard, in the conventional technology, for example, the manager or the like had to go to the assembly work site to check the assembly operations, etc. In contrast, the production navigation system 10 according to this embodiment allows the manager or the like to check the completion of assembly, etc. from a remote location without having to go to the assembly work site.
(c) The support system 60 can check the operation of a process that has variations in work time from a remote location.

(7)音声確認について
(a)生産ナビゲーションシステム10は、マイク17で作業者の音声情報を取得することにより組立動作の完了を確認することもできる。
(7) Regarding Voice Confirmation (a) The production navigation system 10 can also confirm the completion of the assembly operation by acquiring voice information of the worker via the microphone 17.

(8)組立ツールの選択について
(a)生産ナビゲーションシステム10は、電動ドライバで締め付けが完了したことを確認することができる。
(b)生産ナビゲーションシステム10は、電動ドライバのトルクが異なる場合に、所望の電動ドライバの選択を作業者に指示することができる。また、生産ナビゲーションシステム10は、複数の電動ドライバが設けられている場合で、かつ、作業者が使用する電動ドライバの選択を間違えたときに、次工程に進まないように、表示情報としてエラーメッセージを表示して、作業者に注意を喚起することができる。
(c)生産ナビゲーションシステム10は、ネジの種類に合わせて、電流値を変更することにより、電動ドライバのトルクを自動的に調整することができる。
(8) Regarding selection of assembly tools: (a) The production navigation system 10 can confirm that tightening has been completed with an electric screwdriver.
(b) When the torques of the electric screwdrivers are different, the production navigation system 10 can instruct the worker to select the desired electric screwdriver. Furthermore, when multiple electric screwdrivers are provided and the worker makes a mistake in selecting the electric screwdriver to use, the production navigation system 10 can display an error message as display information to alert the worker so that the worker will not proceed to the next process.
(c) The production navigation system 10 can automatically adjust the torque of the electric screwdriver by changing the current value according to the type of screw.

(9)部品管理や作業管理等について
(a)生産ナビゲーションシステム10は、プロジェクタ31でプロジェクションマッピングして情報を提示したり、USBカメラ14で撮影した撮影画像の画像処理を行うことにより、低価格で、作業指示や生産状況の提示、注意喚起等の機能を実現することができる。
(b)生産ナビゲーションシステム10は、管理部71(図1参照)と表示情報作成部72(図1参照)と蓄積部73(図1参照)とを有しており、これらを用いることにより、製品の組立作業時に取得された作業データを蓄積部73に蓄積し、蓄積された作業データに基づいて管理部71で作業実績を管理し、表示情報作成部72で作業実績を表す表示情報を任意のタイミングで作成することを特徴とするデータ管理方法を実現することができる。また、サポートシステム60は、システム内に管理部71と表示情報作成部72と蓄積部73とが設けられた場合に、これらを用いることにより、同様のデータ管理方法を実現することができる。これにより、例えば、生産ナビゲーションシステム10やサポートシステム60は、作業現場における部品欠品の有無、ネジ締めや調整作業、試験結果等が良好であるか否かを確認することができる。
(c)生産ナビゲーションシステム10は、作業履歴の厳格化やIT化による効率の向上を実現することができる。
(d)生産ナビゲーションシステム10は、組立現場の作業時間をリアルタイムで表示することができる。これにより、短期間での作業の改善(例えば、作業時間のバラツキの低減やラインバランスの調整等)を実現することができる。
(e)生産ナビゲーションシステム10は、中間製造物である半製品に対して任意のタイミングで半製品コードを付与して、コード入力部19(図2参照)やキーボード等から入力することができる。そして、生産ナビゲーションシステム10やサポートシステム60は、入力されたコードに基づいて作業データと作業実績とを管理することができる。例えば、生産ナビゲーションシステム10やサポートシステム60は、作業データと最終製造物である完成品に対して付与された完成品コードと半製品コードとを関連付けて、蓄積部73(図1参照)の管理情報ファイルD11((図17参照))に登録することによって、任意のタイミングで関連付けされた製品に関する作業データを読み出すことができる。これにより、生産ナビゲーションシステム10やサポートシステム60は、例えば、最終製造物である完成品の完成品コードに基づいて、どの作業者がどの半製品を組み立てたのかという情報、半製品の組立時の作業動画像等をデータベースから読み出して検証することができる。また、生産ナビゲーションシステム10やサポートシステム60は、例えば、作業者IDに基づいて、そのIDの作業者の作業動画像等をデータベースから読み出し、そのIDの作業者の作業の良否等を検証することができる。
(f)生産ナビゲーションシステム10やサポートシステム60は、非熟練者の作業者の作業動画画像と熟練者の作業者の作業動画画像とを比較可能にディスプレイに表示することができる(図19C参照)。これにより、生産ナビゲーションシステム10やサポートシステム60は、各作業者が行った作業の課題(例えば、各工程において時間を要する要因、作業内容の適切性等)を容易に検証することができる。
(g)生産ナビゲーションシステム10やサポートシステム60は、製品の組立作業時にモーションキャプチャカメラ20で撮影された作業者の動画像に基づいて、作業者の動作を分析することができる(図20参照)。
(h)生産ナビゲーションシステム10は、部品のキット作業が不要になるため、部品の配膳作業や部品配膳者を削除することができる。そのため、生産ナビゲーションシステム10は、生産コストを低減することができる。
(i)生産ナビゲーションシステム10は、センサや電動ドライバ等からの情報を利用したり作業者の作業内容を解析したりすることにより、作業履歴を電子データとして自動的に残すことができる。これにより、生産ナビゲーションシステム10は、チェックシートの作成作業工数を削減すること(つまり、チェックシート(作業項目一覧リスト)に作業者毎に作業履歴を記入したり捺印やサインを行ったりする手間を削減すること)ができる。また、ペーパーレス化を促進することができる。そのため、これによっても、生産ナビゲーションシステム10は、生産コストを低減することができる。
(j)生産ナビゲーションシステム10は、作業者が入れ替わっても直ぐに対応することができる。
(k)表示情報作成部72(図1参照)は、表示情報として、製品の組立作業の各工程を表す工程情報と、各工程に要した時間情報とが含まれているグラフデータを作成して、表示することができる(例えば、図19B、図19D、図19E参照)。また、表示情報作成部72(図1参照)は、表示情報として、熟練者の作業動画画像と非熟練者の作業動画画像とを比較可能に表示する作業画像情報を作成して、表示することができる(例えば、図19C参照)。さらに、表示情報作成部72(図1参照)は、表示情報として、作業動画があり、かつ、様々な事項に関する詳細な解説が付された指示情報がある作業取得モードのナビゲーション情報と、作業動画がなく、かつ、比較的重要な事項に関する解説のみが付された指示情報がある熟練モードのナビゲーション情報と、を作成して、選択可能に表示することができる(図7A参照)。また、表示情報作成部72(図1参照)は、製品の組立作業時にモーションキャプチャカメラ20で撮影された作業者の動画像に基づいて、作業者の手の移動距離を特定して、表示情報として、動画像のフレーム情報と作業者の手の移動距離情報との相関関係を表すグラフデータを作成して、表示することができる(図20参照)。生産ナビゲーションシステム10やサポートシステム60は、システム内にこのような表示情報作成部72(図1参照)が設けられることにより、製品の組立作業を効率よく支援することができる。
(9) Regarding parts management, work management, etc. (a) The production navigation system 10 can provide functions such as work instructions, production status, and warnings at a low cost by presenting information through projection mapping using the projector 31 and by performing image processing on images captured by the USB camera 14.
(b) The production navigation system 10 has a management unit 71 (see FIG. 1), a display information creation unit 72 (see FIG. 1), and a storage unit 73 (see FIG. 1), and by using these, a data management method can be realized in which work data acquired during product assembly work is stored in the storage unit 73, the management unit 71 manages work results based on the stored work data, and the display information creation unit 72 creates display information representing the work results at any timing. In addition, when the support system 60 is provided with the management unit 71, the display information creation unit 72, and the storage unit 73 within the system, the support system 60 can realize a similar data management method by using these. As a result, for example, the production navigation system 10 and the support system 60 can check whether there are any missing parts at the work site, whether screw tightening and adjustment work, test results, etc. are good or not.
(c) The production navigation system 10 can improve efficiency by implementing stricter work history and IT.
(d) The production navigation system 10 can display the work time at the assembly site in real time, which makes it possible to improve work in a short period of time (for example, reducing the variation in work time and adjusting the line balance).
(e) The production navigation system 10 can assign a semi-finished product code to a semi-finished product, which is an intermediate product, at any time and input the code from the code input unit 19 (see FIG. 2) or a keyboard. The production navigation system 10 and the support system 60 can manage the work data and the work results based on the input code. For example, the production navigation system 10 and the support system 60 can read out the work data related to the associated product at any time by associating the work data with the finished product code and the semi-finished product code assigned to the finished product, which is the final product, and registering the data in the management information file D11 (see FIG. 17) in the storage unit 73 (see FIG. 1). This allows the production navigation system 10 and the support system 60 to read out and verify information on which worker assembled which semi-finished product, and video images of the work during the assembly of the semi-finished product, from the database, for example, based on the finished product code of the finished product, which is the final product. In addition, the production navigation system 10 and the support system 60 can read out from the database, for example, a working video image of the worker with that ID based on the worker ID, and verify the quality of the work performed by the worker with that ID.
(f) The production navigation system 10 and the support system 60 can display on a display a video image of a non-skilled worker working and a video image of a skilled worker working so that they can be compared (see FIG. 19C). This allows the production navigation system 10 and the support system 60 to easily verify issues with the work performed by each worker (for example, factors that require time in each process, the appropriateness of the work content, etc.).
(g) The production navigation system 10 and the support system 60 can analyze the movements of a worker based on video images of the worker captured by the motion capture camera 20 during product assembly work (see FIG. 20).
(h) The production navigation system 10 eliminates the need for parts kitting, which can eliminate the need for parts distribution work and parts distributors. Therefore, the production navigation system 10 can reduce production costs.
(i) The production navigation system 10 can automatically record work history as electronic data by using information from sensors, electric drivers, etc. and analyzing the work content of the worker. This allows the production navigation system 10 to reduce the amount of work required to create checklists (i.e., reduce the effort required to enter the work history for each worker on a checklist (list of work items) and to stamp or sign it). It can also promote a paperless system. This also allows the production navigation system 10 to reduce production costs.
(j) The production navigation system 10 can immediately respond even if the worker is replaced.
(k) The display information creation unit 72 (see FIG. 1) can create and display, as the display information, graph data including process information representing each process of the assembly work of the product and time information required for each process (see, for example, FIG. 19B, FIG. 19D, and FIG. 19E). The display information creation unit 72 (see FIG. 1) can also create and display, as the display information, work image information that displays a work video image of an expert and a work video image of an unexpert so as to be comparable (see, for example, FIG. 19C). Furthermore, the display information creation unit 72 (see FIG. 1) can create, as the display information, navigation information for a work acquisition mode that includes a work video and instruction information with detailed explanations on various matters, and navigation information for a skilled mode that does not include a work video and instruction information with only explanations on relatively important matters, and selectably display them (see FIG. 7A). Furthermore, the display information creation unit 72 (see FIG. 1) can identify the distance the worker's hands have moved based on the video of the worker captured by the motion capture camera 20 during product assembly work, and create and display, as display information, graph data showing the correlation between frame information of the video and information on the distance the worker's hands have moved (see FIG. 20). By providing such a display information creation unit 72 (see FIG. 1) within the system, the production navigation system 10 and the support system 60 can efficiently support product assembly work.

(10)機能の拡張性について
(a)生産ナビゲーションシステム10は、USBカメラ14等を追加することができる。これにより、生産ナビゲーションシステム10は、例えば銘板欠品の有無等を確認することもできる。
(b)生産ナビゲーションシステム10は、マイク17やスピーカ18を追加することができる。これにより、生産ナビゲーションシステム10は、音声認識の精度や音声指示の適格性を向上させることができる。
(c)生産ナビゲーションシステム10は、各種のプログラム(例えば、生産ナビゲーションシステム10の制御プログラム、画像解析プログラム、音声認識プログラム等)は、適宜更新することができる。
(d)生産ナビゲーションシステム10は、別途、照明装置を作業台13の周囲に備えるようにしてもよい。これにより、作業台13の周囲の明るさが場所や時間帯等で変化する場合であっても、生産ナビゲーションシステム10は、良好な明るさの撮影画像を取得することができ、撮影画像の解析精度を向上させることができる。
(10) Functionality Expandability (a) The production navigation system 10 can be supplemented with a USB camera 14, etc. This enables the production navigation system 10 to check, for example, whether or not a nameplate is missing.
(b) The production navigation system 10 can be provided with an additional microphone 17 and speaker 18. This allows the production navigation system 10 to improve the accuracy of voice recognition and the appropriateness of voice instructions.
(c) The production navigation system 10 can update various programs (for example, the control program of the production navigation system 10, the image analysis program, the voice recognition program, etc.) as needed.
(d) The production navigation system 10 may be configured to provide separate lighting devices around the workbench 13. This allows the production navigation system 10 to acquire captured images with good brightness even if the brightness around the workbench 13 varies depending on the location, time of day, etc., and improves the accuracy of analyzing the captured images.

以上の通り、本実施形態に係る生産ナビゲーションシステム10によれば、装置を生産する際に好適な情報を組立作業者に提示することができる。 As described above, the production navigation system 10 according to this embodiment can provide assembly workers with information that is suitable for producing equipment.

なお、本発明は、前記した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変更や変形を行うことができる。
例えば、前記した実施形態は、本発明の要旨を分かり易く説明するために詳細に説明したものである。そのため、本発明は、必ずしも説明した全ての構成要素を備えるものに限定されるものではない。また、本発明は、ある構成要素に他の構成要素を追加したり、一部の構成要素を他の構成要素に変更したりすることができる。また、本発明は、一部の構成要素を削除することもできる。
The present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the spirit and scope of the present invention.
For example, the above-described embodiment has been described in detail to clearly explain the gist of the present invention. Therefore, the present invention is not necessarily limited to having all of the components described. In addition, the present invention can be modified by adding other components to certain components, or by replacing some components with other components. In addition, the present invention can be modified by deleting some components.

また、例えば、図5、図6、図15、図16に示すフローチャートは、運用に応じて適宜変更することができる。また、例えば、表示画面の内容や、グラフデータ等は、運用に応じて構成を適宜変更することができる。
[付記]
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。(1)
作業者が採取を行う品物を載置する複数の載置部に対応する領域に対し、作業者を補助する情報を表示するよう制御する表示制御部と、
撮影部により撮影された前記作業者を含む動画像に基づいて、前記作業者の動作を分析する分析制御部と、
前記分析制御部による分析結果に基づく作業実績を記憶する記憶部と、
前記記憶部に記憶された前記作業実績に基づいて、作業時間を含む情報を出力する出力部と、を備える、
ナビゲーションシステム。
(2)
前記表示制御部は、前記品物に関連する組立ガイダンス情報を表示する、
上記(1)に記載のナビゲーションシステム。
(3)
前記記憶部は、前記作業者を特定するための情報を、前記作業実績と関連付けてさらに記憶する、
上記(1)に記載のナビゲーションシステム。
(4)
前記作業実績は、開始時刻および終了時刻を含む、
上記(1)に記載のナビゲーションシステム。
(5)
前記分析制御部は、前記動画像に基づいて作業者の手の重心位置を検出することで前記作業者の動作を分析する、
上記(1)に記載のナビゲーションシステム。
(6)
前記分析制御部は、前記動画像と、前記作業者を含まないマスタ画像との差分に基づいて、前記作業者の手の重心位置を検出することで前記作業者の動作を分析する、
上記(5)に記載のナビゲーションシステム。
(7)
前記ナビゲーションシステムは、組立ツールを制御する組立ツール制御部をさらに備え、
前記組立ツール制御部は、前記組立ツールを用いた作業履歴を前記組立ツールからの情報に基づいて取得する、
上記(1)に記載のナビゲーションシステム。
(8)
作業者が採取を行う品物を載置する複数の載置部に対応する領域に対し、作業者を補助する情報を表示するよう制御するステップと、
撮影部により撮影された前記作業者を含む動画像に基づいて、前記作業者の動作を分析するステップと、
分析した結果に基づく作業実績を記憶部に記憶させるステップと、
前記記憶部に記憶された前記作業実績に基づいて、作業時間を含む情報を出力するステップと、を備える、
情報処理方法。
(9)
コンピュータを、
作業者が採取を行う品物を載置する複数の載置部に対応する領域に対し、作業者を補助する情報を表示するよう制御する表示制御部と、
撮影部により撮影された前記作業者を含む動画像に基づいて、前記作業者の動作を分析する分析制御部と、
前記分析制御部による分析結果に基づく作業実績を記憶する記憶部と、
前記記憶部に記憶された前記作業実績に基づいて、作業時間を含む情報を出力する出力部と、
として機能させるためのプログラム。
In addition, for example, the flowcharts shown in Figures 5, 6, 15, and 16 can be appropriately changed depending on the operation. In addition, for example, the contents of the display screen, graph data, etc. can be appropriately changed in configuration depending on the operation.
[Additional Notes]
The invention described in the claims originally attached to this application is as follows: (1)
a display control unit that controls to display information to assist the worker in an area corresponding to a plurality of placement units on which the worker places the items to be collected;
an analysis control unit that analyzes the motion of the worker based on a moving image including the worker captured by a capturing unit;
A storage unit that stores the work results based on the analysis result by the analysis control unit;
and an output unit that outputs information including a work time based on the work performance stored in the storage unit.
Navigation system.
(2)
The display control unit displays assembly guidance information related to the item.
The navigation system described in (1) above.
(3)
The storage unit further stores information for identifying the worker in association with the work record.
The navigation system described in (1) above.
(4)
The work performance includes a start time and an end time.
The navigation system described in (1) above.
(5)
The analysis control unit analyzes the motion of the worker by detecting a center of gravity position of the worker's hand based on the moving image.
The navigation system described in (1) above.
(6)
the analysis control unit detects a center of gravity position of the worker's hand based on a difference between the moving image and a master image that does not include the worker, thereby analyzing the motion of the worker.
The navigation system described in (5) above.
(7)
The navigation system further includes an assembly tool control unit that controls an assembly tool,
the assembly tool control unit acquires a work history using the assembly tool based on information from the assembly tool.
The navigation system described in (1) above.
(8)
A step of controlling the display of information to assist the worker in an area corresponding to a plurality of placement units on which the worker places the items to be collected;
Analyzing the movement of the worker based on a moving image including the worker captured by a capturing unit;
storing the work performance based on the analysis result in a storage unit;
and outputting information including a work time based on the work performance stored in the storage unit.
Information processing methods.
(9)
Computer,
a display control unit that controls to display information to assist the worker in an area corresponding to a plurality of placement units on which the worker places the items to be collected;
an analysis control unit that analyzes the motion of the worker based on a moving image including the worker captured by a capturing unit;
A storage unit that stores the work results based on the analysis result by the analysis control unit;
an output unit that outputs information including a work time based on the work performance stored in the storage unit;
A program to function as a

10 生産ナビゲーションシステム
11 制御装置(PC)
11a データベース(蓄積部)
12 棚(部品倉庫)
13 作業台
14(14a,14b) 撮影部(USBカメラ)
15 表示機構(表示部)
16(16a,16b) ディスプレイ
17 マイク
18 スピーカ
19 コード入力部
20 モーションキャプチャカメラ
21(21a,21b,21c,21d) 部品載置部
22(22a,22b,22c,22d) 仕切板
22aa,22ab,22ac,22ad 傾斜面
23 コマンド入力部
31 プロジェクタ
32 ミラー
33,34 板状部材(投影部)
40 トレイ
41 部品
44 支持フレーム
45 レール(吊下部)
46 組立ツール(電動ドライバ)
60 サポートシステム
61 データ収集装置
62 データ処理装置
63 サポート装置(PC)
71 管理部
72 表示情報作成部(表示制御部、分析制御部、出力部)
73 蓄積部(記憶部)
81 取得部
82 保存部
83 解析部
84 提供部
DP 撮像データ
D1 マスタ画像取得
D2 撮影画像取得
D3 2値化処理
D11 管理情報ファイル
Gu ガイダンス
Mk マーク
P0 重心検出
R1,R2,R3 位置検出
P1 位置
10 Production navigation system 11 Control device (PC)
11a Database (storage unit)
12 Shelf (parts warehouse)
13 Work table 14 (14a, 14b) Photography unit (USB camera)
15 Display mechanism (display unit)
16 (16a, 16b) Display 17 Microphone 18 Speaker 19 Code input section 20 Motion capture camera 21 (21a, 21b, 21c, 21d) Part placement section 22 (22a, 22b, 22c, 22d) Partition plate 22aa, 22ab, 22ac, 22ad Inclined surface 23 Command input section 31 Projector 32 Mirror 33, 34 Plate-shaped member (projection section)
40 Tray 41 Part 44 Support frame 45 Rail (hanging part)
46 Assembly tools (electric screwdriver)
60 Support system 61 Data collection device 62 Data processing device 63 Support device (PC)
71 Management unit 72 Display information creation unit (display control unit, analysis control unit, output unit)
73 Storage unit (memory unit)
81 Acquisition section 82 Storage section 83 Analysis section 84 Provision section DP Image data D1 Master image acquisition D2 Photographed image acquisition D3 Binarization processing D11 Management information file Gu Guidance Mk Mark P0 Center of gravity detection R1, R2, R3 Position detection P1 Position

Claims (9)

作業者が採取を行う品物を載置する複数の載置部に対応する領域に対し、作業者を補助する情報を表示するよう制御する表示制御部と、A display control unit that controls to display information to assist the worker in an area corresponding to a plurality of placement units on which the worker places the items to be collected;
撮影部により撮影された前記作業者を含む動画像に基づいて、前記作業者の動作を分析する分析制御部と、an analysis control unit that analyzes the motion of the worker based on a moving image including the worker captured by a capturing unit;
前記分析制御部による分析結果に基づく作業実績を記憶する記憶部と、A storage unit that stores work results based on the analysis results by the analysis control unit;
前記記憶部に記憶された前記作業実績に基づいて、作業時間を含む情報を出力する出力部と、を備える、and an output unit that outputs information including a work time based on the work performance stored in the storage unit.
ナビゲーションシステム。Navigation system.
前記表示制御部は、前記品物に関連する組立ガイダンス情報を表示する、The display control unit displays assembly guidance information related to the item.
請求項1に記載のナビゲーションシステム。The navigation system of claim 1.
前記記憶部は、前記作業者を特定するための情報を、前記作業実績と関連付けてさらに記憶する、The storage unit further stores information for identifying the worker in association with the work record.
請求項1に記載のナビゲーションシステム。The navigation system of claim 1 .
前記作業実績は、開始時刻および終了時刻を含む、The work performance includes a start time and an end time.
請求項1に記載のナビゲーションシステム。The navigation system of claim 1 .
前記分析制御部は、前記動画像に基づいて作業者の手の重心位置を検出することで前記作業者の動作を分析する、The analysis control unit analyzes the motion of the worker by detecting a center of gravity position of the worker's hand based on the moving image.
請求項1に記載のナビゲーションシステム。The navigation system of claim 1 .
前記分析制御部は、前記動画像と、前記作業者を含まないマスタ画像との差分に基づいて、前記作業者の手の重心位置を検出することで前記作業者の動作を分析する、the analysis control unit detects a center of gravity position of the worker's hand based on a difference between the moving image and a master image that does not include the worker, thereby analyzing the motion of the worker.
請求項5に記載のナビゲーションシステム。6. The navigation system according to claim 5.
前記ナビゲーションシステムは、組立ツールを制御する組立ツール制御部をさらに備え、The navigation system further includes an assembly tool control unit that controls an assembly tool,
前記組立ツール制御部は、前記組立ツールを用いた作業履歴を前記組立ツールからの情報に基づいて取得する、the assembly tool control unit acquires a work history using the assembly tool based on information from the assembly tool.
請求項1に記載のナビゲーションシステム。The navigation system of claim 1.
作業者が採取を行う品物を載置する複数の載置部に対応する領域に対し、作業者を補助する情報を表示するよう制御するステップと、A step of controlling the display of information to assist the worker in an area corresponding to a plurality of placement units on which the worker places the items to be collected;
撮影部により撮影された前記作業者を含む動画像に基づいて、前記作業者の動作を分析するステップと、Analyzing the movement of the worker based on a moving image including the worker captured by a capturing unit;
分析した結果に基づく作業実績を記憶部に記憶させるステップと、storing the work performance based on the analysis result in a storage unit;
前記記憶部に記憶された前記作業実績に基づいて、作業時間を含む情報を出力するステップと、を備える、and outputting information including a work time based on the work performance stored in the storage unit.
情報処理方法。Information processing methods.
コンピュータを、Computer,
作業者が採取を行う品物を載置する複数の載置部に対応する領域に対し、作業者を補助する情報を表示するよう制御する表示制御部と、a display control unit that controls to display information to assist the worker in an area corresponding to a plurality of placement units on which the worker places the items to be collected;
撮影部により撮影された前記作業者を含む動画像に基づいて、前記作業者の動作を分析する分析制御部と、an analysis control unit that analyzes the motion of the worker based on a moving image including the worker captured by a capturing unit;
前記分析制御部による分析結果に基づく作業実績を記憶する記憶部と、A storage unit that stores work results based on the analysis results by the analysis control unit;
前記記憶部に記憶された前記作業実績に基づいて、作業時間を含む情報を出力する出力部と、an output unit that outputs information including a work time based on the work performance stored in the storage unit;
として機能させるためのプログラム。A program to function as a
JP2024027411A 2016-09-12 2024-02-27 Navigation system, information processing method, and program Active JP7722489B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2025127527A JP2025142337A (en) 2016-09-12 2025-07-30 Navigation system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016178031 2016-09-12
JP2016178031 2016-09-12
JP2016212113A JP7139570B2 (en) 2016-09-12 2016-10-28 production navigation system
JP2022108097A JP7521557B2 (en) 2016-09-12 2022-07-05 Navigation system, projection method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022108097A Division JP7521557B2 (en) 2016-09-12 2022-07-05 Navigation system, projection method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2025127527A Division JP2025142337A (en) 2016-09-12 2025-07-30 Navigation system

Publications (2)

Publication Number Publication Date
JP2024051079A true JP2024051079A (en) 2024-04-10
JP7722489B2 JP7722489B2 (en) 2025-08-13

Family

ID=61695020

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2016212113A Active JP7139570B2 (en) 2016-09-12 2016-10-28 production navigation system
JP2022108097A Active JP7521557B2 (en) 2016-09-12 2022-07-05 Navigation system, projection method, and program
JP2024027411A Active JP7722489B2 (en) 2016-09-12 2024-02-27 Navigation system, information processing method, and program
JP2025127527A Pending JP2025142337A (en) 2016-09-12 2025-07-30 Navigation system

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016212113A Active JP7139570B2 (en) 2016-09-12 2016-10-28 production navigation system
JP2022108097A Active JP7521557B2 (en) 2016-09-12 2022-07-05 Navigation system, projection method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2025127527A Pending JP2025142337A (en) 2016-09-12 2025-07-30 Navigation system

Country Status (1)

Country Link
JP (4) JP7139570B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7155610B2 (en) * 2018-05-25 2022-10-19 富士通株式会社 Display program, display method and display control device
CN108806086B (en) * 2018-08-03 2024-05-03 虫极科技(北京)有限公司 Columnar commodity identification system and method
JP7089699B2 (en) * 2018-08-03 2022-06-23 株式会社サタケ Control panel wiring work auxiliary device
JP7322423B2 (en) * 2019-02-22 2023-08-08 沖電気工業株式会社 Information processing device, production navigation system, information processing method and program
JP2020135832A (en) * 2019-02-26 2020-08-31 株式会社サタケ Control board wiring operation method and control board wiring operation auxiliary device
JP7358848B2 (en) * 2019-08-29 2023-10-11 沖電気工業株式会社 Production navigation device, production navigation method and program
JP7442066B2 (en) * 2019-11-06 2024-03-04 パナソニックIpマネジメント株式会社 Work display method and work display device
JP7447543B2 (en) * 2020-02-27 2024-03-12 沖電気工業株式会社 Information processing device, information processing method, program, and information processing system
JP7432407B2 (en) * 2020-03-16 2024-02-16 大豊精機株式会社 Work management system and how to set up the work management system
JP7520589B2 (en) * 2020-06-19 2024-07-23 株式会社Subaru Operational Guarantee System
JP2022114491A (en) * 2021-01-27 2022-08-08 株式会社竹中工務店 guidance system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169604A (en) * 2000-12-04 2002-06-14 Hitachi Ltd Work instruction system
JP2006072599A (en) * 2004-09-01 2006-03-16 Seiko Epson Corp Production navigation system
JP2008222386A (en) * 2007-03-13 2008-09-25 Omron Corp Work support device
JP2009104297A (en) * 2007-10-22 2009-05-14 Mitsubishi Electric Corp Operation input device
JP2013025478A (en) * 2011-07-19 2013-02-04 Panasonic Corp Work detection system
JP2015181024A (en) * 2015-05-14 2015-10-15 オムロン株式会社 Operation management system and operation management method

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001166681A (en) * 1999-12-10 2001-06-22 Honda Motor Co Ltd Work learning support device
JP3834766B2 (en) * 2000-04-03 2006-10-18 独立行政法人科学技術振興機構 Man machine interface system
JP4735172B2 (en) * 2005-10-06 2011-07-27 オムロン株式会社 Production management device, production management method, production management program, recording medium recording production management program, and production system
JP4784752B2 (en) * 2006-06-30 2011-10-05 サクサ株式会社 Image processing device
JP2008225704A (en) * 2007-03-09 2008-09-25 Omron Corp Work evaluation apparatus, work evaluation method, and control program
JP2009274832A (en) * 2008-05-15 2009-11-26 Omron Corp Part storage position indicating device and part storage position indicating method
JP5293570B2 (en) * 2009-11-16 2013-09-18 富士通株式会社 Display device, display program, and display method
WO2013035687A1 (en) * 2011-09-05 2013-03-14 株式会社Tecapo Work management system, work management terminal, program and work management method
JP5891399B2 (en) * 2012-01-13 2016-03-23 パナソニックIpマネジメント株式会社 Work detection system setting method and work detection system using the same
JP5866240B2 (en) * 2012-03-29 2016-02-17 株式会社アマダホールディングス Shelf device and projection device used for shelf device
JP2014002502A (en) * 2012-06-18 2014-01-09 Dainippon Printing Co Ltd Stretched-out hand detector, stretched-out hand detecting method and program
JP5334145B1 (en) * 2012-06-29 2013-11-06 トーヨーカネツソリューションズ株式会社 Support system for picking goods
JP2015089586A (en) * 2013-11-05 2015-05-11 小島プレス工業株式会社 Work compliance support device
JP6310333B2 (en) * 2014-06-06 2018-04-11 株式会社 日立産業制御ソリューションズ Work management system and work management method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169604A (en) * 2000-12-04 2002-06-14 Hitachi Ltd Work instruction system
JP2006072599A (en) * 2004-09-01 2006-03-16 Seiko Epson Corp Production navigation system
JP2008222386A (en) * 2007-03-13 2008-09-25 Omron Corp Work support device
JP2009104297A (en) * 2007-10-22 2009-05-14 Mitsubishi Electric Corp Operation input device
JP2013025478A (en) * 2011-07-19 2013-02-04 Panasonic Corp Work detection system
JP2015181024A (en) * 2015-05-14 2015-10-15 オムロン株式会社 Operation management system and operation management method

Also Published As

Publication number Publication date
JP7139570B2 (en) 2022-09-21
JP7722489B2 (en) 2025-08-13
JP2022141732A (en) 2022-09-29
JP2018045669A (en) 2018-03-22
JP7521557B2 (en) 2024-07-24
JP2025142337A (en) 2025-09-30

Similar Documents

Publication Publication Date Title
JP7521557B2 (en) Navigation system, projection method, and program
JP7599118B2 (en) Shelf monitoring device, shelf monitoring method, and shelf monitoring program
CN111937034B (en) Method and device for creating learning data set
TWI474144B (en) Job management system, job management terminal, computer program products and job management methods
JP6729545B2 (en) Work support device, work support method, and work support program
CN104820836B (en) Identification device and recognition methods
JP6610348B2 (en) Management program, management apparatus, and management method
US20140324642A1 (en) Projected image planogram system
JP2008235504A (en) Assembly inspection device
CN103189827A (en) Object display device and object display method
CA2726895A1 (en) Image recognizing apparatus, and operation determination method and program therefor
US20180068158A1 (en) Information processing device, information processing system, position reporting method, and program recording medium
JPWO2016189954A1 (en) Driving support device and driving support method
CN104599269B (en) Grid location processing system and method based on camera technique
CN112988096A (en) Display unit positioning method, device, equipment, storage medium and display device
JP2020083517A (en) Sorting management device, worker terminal, sorting system, and program
JP7322423B2 (en) Information processing device, production navigation system, information processing method and program
CN103824143A (en) Component assembly indicating system and method
JP7358848B2 (en) Production navigation device, production navigation method and program
JP5846378B2 (en) Information management method and information management system
JP2022129435A (en) Information processing device, information processing system, and program
KR20130064504A (en) Apparatus and method for creating maintenance manual using image recognition
JPH0696193A (en) Part identification result display method and device
JP7598902B2 (en) Information processing device, information processing method, and program
JP2006167829A (en) Assembling work apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250714

R150 Certificate of patent or registration of utility model

Ref document number: 7722489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150