JPH11191157A - Image processing device - Google Patents
Image processing deviceInfo
- Publication number
- JPH11191157A JPH11191157A JP9358249A JP35824997A JPH11191157A JP H11191157 A JPH11191157 A JP H11191157A JP 9358249 A JP9358249 A JP 9358249A JP 35824997 A JP35824997 A JP 35824997A JP H11191157 A JPH11191157 A JP H11191157A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- data
- electronic component
- address
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Supply And Installment Of Electrical Components (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 短時間で高精度な処理を行うことができる画
像処理装置を提供すること。
【解決手段】 画像処理装置は、カメラから出力される
第1の画像データを第1のフレームメモリに記憶し(ス
テップS5)、第1の画像データに対して「1/2画
素」だけ位置ずれした第2の画像データを第2のフレー
ムメモリに記憶する(ステップS10)。そして、第1
の画像データに基づいて読出範囲を設定した後(ステッ
プS12)、第1の画像データおよび第2の画像データ
を読出範囲内で読出して合成することに伴い合成データ
を作成し、合成データに基づいて認識対象物の位置情報
を検出する(ステップS14)。
(57) [Problem] To provide an image processing apparatus capable of performing highly accurate processing in a short time. An image processing apparatus stores first image data output from a camera in a first frame memory (step S5), and shifts the position of the first image data by “1 / pixel” with respect to the first image data. The obtained second image data is stored in the second frame memory (step S10). And the first
After setting the readout range based on the image data (step S12), the first image data and the second image data are read out within the readout range and combined to create combined data, and based on the combined data. To detect the position information of the recognition target (step S14).
Description
【0001】[0001]
【発明の属する技術分野】本発明は、第1の画像データ
および第1の画像データに対して画素が位置ずれした第
2の画像データを処理する画像処理装置に関する。[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus for processing first image data and second image data in which pixels are displaced from the first image data.
【0002】[0002]
【発明が解決しようとする課題】例えば部品実装装置に
は、電子部品をノズルにより吸着してプリント配線基板
に実装する構成のものがある。この構成の場合、電子部
品を2次元の固定カメラで撮像した後、電子部品を各次
元方向へ「1/2画素」だけ移動させて再撮像する。そ
して、1回目の画像データと2回目の画像データとの合
成データに基づいて電子部品の吸着姿勢を検出し、吸着
姿勢の検出結果に応じてノズルの搬送量を調整してい
る。For example, there is a component mounting apparatus in which an electronic component is sucked by a nozzle and mounted on a printed wiring board. In the case of this configuration, after the electronic component is imaged by the two-dimensional fixed camera, the electronic component is moved in each dimension by “方向 pixel” and imaged again. Then, the suction posture of the electronic component is detected based on the combined data of the first image data and the second image data, and the transport amount of the nozzle is adjusted according to the detection result of the suction posture.
【0003】図13は、1回目の画像データおよび2回
目の画像データを合成する画像処理装置を概略的に示す
ものであり、(a)は1回目の画像データが記憶される
第1のフレームメモリ、(b)は2回目の画像データが
記憶される第2のフレームメモリである。また、(d)
は仮想的な第3のフレームメモリであり、第3のフレー
ムメモリは、(c)に示すように、第1のフレームメモ
リと第2のフレームメモリとを合成して得られる。FIG. 13 schematically shows an image processing apparatus for synthesizing the first image data and the second image data. FIG. 13A shows a first frame in which the first image data is stored. (B) is a second frame memory in which the second image data is stored. (D)
Is a virtual third frame memory, and the third frame memory is obtained by combining the first frame memory and the second frame memory as shown in FIG.
【0004】上記構成の場合、第3のフレームメモリの
各アドレスF3 (V,H)には、(e)に示すように、
第1のフレームメモリのアドレスF1 (V,H)および
第2のフレームメモリのアドレスF2 (V,H)が対応
付けられており、アドレスF1 (V,H)に記憶された
画像データとアドレスF2 (V,H)に記憶された画像
データとを各アドレスF3 (V,H)毎に加算すること
に伴い、分解能および濃淡階調が高い合成データが作成
される(いわゆる画像ずらし法)。しかしながら、アド
レスF3 (V,H)の数が多く、データの加算回数が増
えるので、処理時間が長くなる。In the above configuration, each address F3 (V, H) of the third frame memory has, as shown in FIG.
The address F1 (V, H) of the first frame memory and the address F2 (V, H) of the second frame memory are associated with each other, and the image data stored at the address F1 (V, H) and the address F2 By adding the image data stored in (V, H) to each address F3 (V, H), synthesized data having a high resolution and a high gradation is created (so-called image shifting method). However, since the number of addresses F3 (V, H) is large and the number of data additions is increased, the processing time becomes longer.
【0005】本発明は上記事情に鑑みてなされたもので
あり、その目的は、画像データの合成を短時間で行うこ
とができ、しかも、対象物の高精度な認識が可能な画像
処理装置を提供することにある。The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image processing apparatus capable of synthesizing image data in a short time and capable of recognizing a target object with high accuracy. To provide.
【0006】[0006]
【課題を解決するための手段】請求項1記載の画像処理
装置は、第1の画像データおよび第1の画像データに対
して画素が位置ずれした第2の画像データを出力する撮
像手段と、前記撮像手段から出力される第1の画像デー
タを記憶する第1の記憶手段と、前記撮像手段から出力
される第2の画像データを記憶する第2の記憶手段と、
前記第1の記憶手段に記憶された第1の画像データある
いは前記第2の記憶手段に記憶された第2の画像データ
に基づいて処理範囲を設定する設定手段と、前記第1の
記憶手段および前記第2の記憶手段から第1の画像デー
タおよび第2の画像データを処理範囲内で読出して合成
する合成手段とを備えたところに特徴を有している。An image processing apparatus according to claim 1, wherein the image processing device outputs first image data and second image data in which pixels are displaced from the first image data. A first storage unit that stores first image data output from the imaging unit; a second storage unit that stores second image data output from the imaging unit;
Setting means for setting a processing range based on the first image data stored in the first storage means or the second image data stored in the second storage means; and It is characterized in that it comprises a combining means for reading out the first image data and the second image data from the second storage means within the processing range and combining them.
【0007】上記手段によれば、第1の画像データおよ
び第2の画像データが合成されるので、合成データに基
づいて高精度な認識を行うことができる。しかも、第1
の画像データおよび第2の画像データが処理範囲内で読
出されて合成されるので、画像データの処理時間が短く
なる。According to the above means, the first image data and the second image data are synthesized, so that highly accurate recognition can be performed based on the synthesized data. And the first
Image data and the second image data are read out and combined within the processing range, so that the processing time of the image data is shortened.
【0008】請求項2記載の画像処理装置は、第1の記
憶手段および第2の記憶手段に第1の画像データおよび
第2の画像データが該順序で記憶され、設定手段が、第
2の画像データの記憶中に第1の画像データに基づいて
処理範囲を設定するところに特徴と有している。上記手
段によれば、第2の画像データの記憶に要する時間を効
率的に使用できるので、処理時間が一層短くなる。According to a second aspect of the present invention, in the image processing apparatus, the first image data and the second image data are stored in the first storage means and the second storage means in this order, and the setting means is provided with the second image data. It is characterized in that the processing range is set based on the first image data while the image data is being stored. According to the above means, the time required for storing the second image data can be used efficiently, so that the processing time is further reduced.
【0009】請求項3記載の画像処理装置は、第2の画
像データの撮像動作,第2の画像データの記憶動作,処
理範囲の設定動作,画像データの合成動作を外部からの
信号に基づいて選択的に実行する選択実行手段を備えた
ところに特徴を有している。上記手段によれば、例えば
認識対象の形状が簡素で精密な認識動作を行う必要がな
い場合には、第1の画像データのみを用いて認識処理を
行うことができるので、画像処理が効率化される。According to a third aspect of the present invention, in the image processing apparatus, the imaging operation of the second image data, the storing operation of the second image data, the setting operation of the processing range, and the synthesizing operation of the image data are performed based on an external signal. It is characterized by having a selection execution means for selectively executing. According to the above-described means, for example, when the shape of the recognition target is simple and it is not necessary to perform a precise recognition operation, the recognition process can be performed using only the first image data. Is done.
【0010】[0010]
【発明の実施の形態】以下、本発明の第1実施例を図1
ないし図8に基づいて説明する。尚、本実施例は、部品
実装装置に本発明を適用したものである。まず、図5に
おいて、ロボット1のステージ1aは、Xサーボモー
タ,Yサーボモータ,θサーボモータ(いずれも図示せ
ず)を駆動源としてX方向(紙面左右方向),Y方向
(紙面前後方向),θ方向(上下方向へ延びる垂線を軸
とした回転方向)へ移動するものであり、ステージ1a
には吸着用ノズル2が上下動可能に装着されている。FIG. 1 shows a first embodiment of the present invention.
This will be described with reference to FIG. In this embodiment, the present invention is applied to a component mounting apparatus. First, in FIG. 5, the stage 1a of the robot 1 is driven by an X servo motor, a Y servo motor, and a θ servo motor (all not shown) as driving sources in the X direction (left-right direction in the drawing) and the Y direction (front-back direction in the drawing). , Θ direction (rotational direction about a vertical line extending in the vertical direction as an axis), and the stage 1a
Is provided with a suction nozzle 2 so as to be vertically movable.
【0011】Xサーボモータ,Yサーボモータ,θサー
ボモータにはホストコントローラ3が接続されている。
このホストコントローラ3はマイクロコンピュータを主
体に構成されたものであり、予め記憶された制御プログ
ラムに基づいて下記〜の動作を実行する。 ステージ1aをX方向およびY方向へ移動させ、ノズ
ル2をパーツフィーダ(図示せず)上に搬送する。 ノズル2を下降・上昇させ、パーツフィーダにセット
された電子部品4をノズル2により吸着して取出す。 ステージ1aをX方向およびY方向へ移動させ、ノズ
ル2をプリント配線基板5上に搬送する。 ノズル2を下降させ、電子部品4をプリント配線基板
5に押付けて実装する。 尚、プリント配線基板5には接着剤およびクリーム半田
が予め塗布されており、電子部品4は接着剤およびクリ
ーム半田上に押付けられることに伴い、プリント配線基
板5に固定および接続される。A host controller 3 is connected to the X servo motor, the Y servo motor, and the θ servo motor.
The host controller 3 is mainly composed of a microcomputer, and executes the following operations based on a control program stored in advance. The stage 1a is moved in the X direction and the Y direction, and the nozzle 2 is transported onto a parts feeder (not shown). The nozzle 2 is lowered and raised, and the electronic component 4 set in the parts feeder is sucked and taken out by the nozzle 2. The stage 1a is moved in the X direction and the Y direction, and the nozzle 2 is transported onto the printed wiring board 5. The nozzle 2 is lowered, and the electronic component 4 is pressed against the printed wiring board 5 and mounted. An adhesive and cream solder are applied to the printed wiring board 5 in advance, and the electronic component 4 is fixed and connected to the printed wiring board 5 by being pressed onto the adhesive and cream solder.
【0012】ロボット1の下方には、撮像手段に相当す
るカメラ6が配設されている。このカメラ6はCCD2
次元カメラからなるものであり、ホストコントローラ3
は、電子部品4をプリント配線基板5上に搬送する際に
ロボット1に停止信号を与える。そして、電子部品4を
カメラ6上で停止させて撮像した後、X方向およびY方
向へ「1/2画素」だけ移動させて再度撮像する。Below the robot 1, a camera 6 corresponding to an image pickup means is provided. This camera 6 is a CCD 2
A three-dimensional camera, and a host controller 3
Supplies a stop signal to the robot 1 when the electronic component 4 is transferred onto the printed wiring board 5. Then, after the electronic component 4 is stopped on the camera 6 to capture an image, the electronic component 4 is moved by “「 pixel ”in the X direction and the Y direction and captured again.
【0013】カメラ6は、図3(a)に示すように、露
光を連続的に行うものであり、カメラ6からは、図3の
(b)に示すように、同期信号を含んだアナログの画像
データが同期信号を基準に連続して出力される。例えば
露光期間Cで電子部品4が撮像される場合、この第1の
画像データは次の露光期間D内に転送される。この露光
期間D内にステージ1aが動作して電子部品4が「1/
2画素」だけ搬送され(図3のh参照)、次の露光期間
Eで「1/2画素」だけずれた電子部品4が撮像され、
この第2の画像データは次の露光期間F内に転送され
る。The camera 6 continuously performs exposure as shown in FIG. 3A, and receives an analog signal including a synchronization signal from the camera 6 as shown in FIG. 3B. Image data is continuously output based on the synchronization signal. For example, when the electronic component 4 is imaged during the exposure period C, the first image data is transferred within the next exposure period D. During this exposure period D, the stage 1a operates to move the electronic component 4 to "1/1 /
The electronic component 4 shifted by “1 / pixel” in the next exposure period E is imaged,
This second image data is transferred within the next exposure period F.
【0014】図6の(a)および図7の(a)は電子部
品4の画像データを示すものであり、図6の(a)に
は、電子部品4として抵抗やコンデンサ等の角形チップ
部品を例示し、図7の(a)には、LSI等のフラット
パッケージ部品を例示する。FIGS. 6A and 7A show image data of the electronic component 4. FIG. 6A shows a rectangular chip component such as a resistor and a capacitor as the electronic component 4. FIG. FIG. 7A illustrates a flat package component such as an LSI.
【0015】図5の画像処理装置7はマイクロコンピュ
ータを主体に構成されたものであり、カメラ6からの第
1の画像データおよび第2の画像データを処理すること
に基づいて、電子部品4の中心位置,存在範囲,境界位
置,輪郭等の位置情報を検出する。以下、画像処理装置
7の詳細構成を図2に基づいて詳述する。The image processing device 7 shown in FIG. 5 is mainly composed of a microcomputer, and processes the first image data and the second image data from the camera 6 to process the electronic component 4. Position information such as a center position, an existence range, a boundary position, and a contour is detected. Hereinafter, the detailed configuration of the image processing device 7 will be described in detail with reference to FIG.
【0016】カメラ6からの第1の画像データおよび第
2の画像データはA/D変換器8に与えられる。このA
/D変換器8は、第1の画像データおよび第2の画像デ
ータをデジタル信号に変換するものであり、第1の画像
データは、A/D変換器8から第1のデータ切換器9を
通して第1のフレームメモリ10に与えられ、第2の画
像データは、A/D変換器8から第2のデータ切換器1
1を通して第2のフレームメモリ12に与えられる。The first image data and the second image data from the camera 6 are provided to an A / D converter 8. This A
The / D converter 8 converts the first image data and the second image data into digital signals, and the first image data is transmitted from the A / D converter 8 through the first data switch 9 The second image data supplied to the first frame memory 10 is supplied from the A / D converter 8 to the second data switch 1.
1 to the second frame memory 12.
【0017】録画用アドレス発生器13は、第1の画像
データに含まれる同期信号および第2の画像データに含
まれる同期信号に基づいて第1の録画用画像アドレス信
号および第2の録画用画像アドレス信号を発生するもの
であり、第1の録画用画像アドレス信号は、第1のアド
レス切換器14を通して第1のフレームメモリ10に与
えられ、第2の録画用画像アドレス信号は、第2のアド
レス切換器15を通して第2のフレームメモリ12に与
えられる。The recording address generator 13 generates a first recording image address signal and a second recording image based on a synchronization signal included in the first image data and a synchronization signal included in the second image data. An address signal is generated. The first recording image address signal is supplied to the first frame memory 10 through the first address switch 14, and the second recording image address signal is supplied to the second frame image signal. The address is supplied to the second frame memory 12 through the address switch 15.
【0018】第1のフレームメモリ10は、第1の画像
データを録画する第1の記憶手段に相当するものであ
り、第1の画像データの各画素データは、図4の(a)
に示すように、第1の録画用画像アドレス信号で決めら
れたアドレスF1 (V,H)に記録される。第2のフレ
ームメモリ12は、第2の画像データを録画する第2の
記憶手段に相当するものであり、第2の画像データの各
画素データは、図4の(b)に示すように、第2の録画
用画像アドレス信号で決められたアドレスF2 (V,
H)に記録される。The first frame memory 10 corresponds to first storage means for recording the first image data, and each pixel data of the first image data is stored in the first frame memory 10 in FIG.
As shown in (1), the image is recorded at the address F1 (V, H) determined by the first video image address signal. The second frame memory 12 corresponds to a second storage unit that records the second image data, and each pixel data of the second image data is, as shown in FIG. The address F2 (V, V) determined by the second video image address signal
H).
【0019】尚、第1のフレームメモリ10には、図4
の(a)に示すように、「4×4=16個」のアドレス
F1 (V,H)が設定され、第2のフレームメモリ12
には、(b)に示すように、「4×4=16個」のアド
レスF2 (V,H)が設定されている。また、(d)は
仮想的な第3のフレームメモリを示すものである。この
第3のフレームメモリは、(c)に示すように、第1の
フレームメモリ10と第2のフレームメモリ12とを重
ね合せて得られるものであり、第3のフレームメモリに
は「7×7=49個」のアドレスF3 (V,H)が設定
されている。It should be noted that the first frame memory 10 has
(A), the address F1 (V, H) of "4.times.4 = 16" is set, and the second frame memory 12
As shown in FIG. 3B, "4.times.4 = 16 addresses" F2 (V, H) are set in the address field. (D) shows a virtual third frame memory. The third frame memory is obtained by superimposing the first frame memory 10 and the second frame memory 12 as shown in FIG. 3C, and the third frame memory has “7 × 7 = 49 addresses F3 (V, H) are set.
【0020】図2のプログラムメモリ16には各種の処
理プログラムが書込まれており、CPU17は、第1の
フレームメモリ10の記憶データをプログラムメモリ1
6の処理プログラムに基づいて処理することに伴い、電
子部品4の中心位置,輪郭等を検出し、検出データを主
メモリ18に書込む。Various processing programs are written in the program memory 16 of FIG. 2, and the CPU 17 stores the data stored in the first frame memory 10 in the program memory 1.
Along with processing based on the processing program of No. 6, the center position, outline and the like of the electronic component 4 are detected, and the detected data is written into the main memory 18.
【0021】アドレス変換器19には、図4の(e)に
示すように、アドレス変換テーブルが記録されている。
このアドレス変換テーブルは、第3のフレームメモリの
アドレスF3 (V,H)と第1のフレームメモリ10の
アドレスF1 (V,H),第2のフレームメモリ12の
アドレスF2 (V,H)とを対応付けるものであり、C
PU17は、アドレスF3 (V,H)に対応するアドレ
スF1 (V,H)およびアドレスF2 (V,H)をアド
レス変換テーブルから読取る。The address converter 19 records an address conversion table as shown in FIG.
This address conversion table includes an address F3 (V, H) of the third frame memory, an address F1 (V, H) of the first frame memory 10, and an address F2 (V, H) of the second frame memory 12. And C
The PU 17 reads the address F1 (V, H) and the address F2 (V, H) corresponding to the address F3 (V, H) from the address conversion table.
【0022】CPU17は、アドレスF1 (V,H)お
よびアドレスF2 (V,H)を読取ると、アドレスF1
(V,H)に対応する画素データを第1のフレームメモ
リ10から読出し、第1のデータ切換器9からデータ合
成器20に与える。これと共に、アドレスF2 (H,
V)に対応する画素データを第2のフレームメモリ12
から読出し、第2のデータ切換器11からデータ合成器
20に与える。すると、データ合成器20が第1のフレ
ームメモリ10からの画素データと第2のフレームメモ
リ12からの画素データとを加算し、合成データを作成
する。尚、データ合成器20は合成手段に相当するもの
であり、加算器を主体に構成されている。When the CPU 17 reads the address F1 (V, H) and the address F2 (V, H), it reads the address F1 (V, H).
The pixel data corresponding to (V, H) is read out from the first frame memory 10 and supplied from the first data switch 9 to the data combiner 20. At the same time, the address F2 (H,
V) is stored in the second frame memory 12
From the second data switch 11 to the data combiner 20. Then, the data synthesizer 20 adds the pixel data from the first frame memory 10 and the pixel data from the second frame memory 12 to create synthesized data. The data synthesizer 20 corresponds to a synthesizing unit, and is mainly configured by an adder.
【0023】CPU17は、設定手段に相当するもので
あり、主メモリ18に書込まれている電子部品4の検出
データを読出し、電子部品4の外形より2〜3画素だけ
大きい読出範囲(処理範囲)を設定する。図6の(b)
および図7の(b)は、CPU17が設定する読出範囲
αを二点鎖線で示すものであり、CPU17は、読出範
囲αを設定すると、読出範囲内のアドレスF3 (V,
H)をアドレス変換器19に与えて上述の動作を繰返
す。そして、読出範囲内での合成データに基づいて電子
部品4の輪郭等を検出し、ホストコントローラ3に与え
る。尚、図2の符号21は、画像処理装置7の入出力イ
ンターフェースを示している。The CPU 17 corresponds to a setting means, reads out the detection data of the electronic component 4 written in the main memory 18, and reads out a read range (processing range) which is larger by 2 to 3 pixels than the outer shape of the electronic component 4. ) Is set. FIG. 6B
7 (b) shows the read range α set by the CPU 17 by a two-dot chain line. When the read range α is set, the CPU 17 sets the address F3 (V,
H) to the address converter 19 to repeat the above operation. Then, the contour and the like of the electronic component 4 are detected based on the combined data within the readout range, and given to the host controller 3. Note that reference numeral 21 in FIG. 2 indicates an input / output interface of the image processing apparatus 7.
【0024】ロボット1のステージ1aには、図5に示
すように、撮像手段に相当するカメラ22が取付けられ
ている。このカメラ22はCCD2次元カメラからなる
ものであり、ホストコントローラ3は、電子部品4をプ
リント配線基板5上に搬送すると、ロボット1に停止信
号を与える。そして、カメラ22をプリント配線基板5
のフィデューシャルマーク5a(図8参照)上で停止さ
せ、フィデューシャルマーク5aを撮像する。As shown in FIG. 5, a camera 22 corresponding to imaging means is mounted on the stage 1a of the robot 1. The camera 22 is a CCD two-dimensional camera. The host controller 3 sends a stop signal to the robot 1 when the electronic component 4 is transported onto the printed wiring board 5. Then, the camera 22 is connected to the printed wiring board 5.
Is stopped on the fiducial mark 5a (see FIG. 8), and the fiducial mark 5a is imaged.
【0025】ホストコントローラ3は、フィデューシャ
ルマーク(位置決めマーク、基準マーク)5aを撮像す
ると、ロボット1を駆動し、カメラ22をX方向および
Y方向へ「1/2画素」だけ移動させた後、フィデュー
シャルマーク5aを再度撮像する。尚、図8の(a)は
フィデューシャルマーク5aの画像データを示すもので
ある。When the host controller 3 picks up an image of the fiducial mark (positioning mark, reference mark) 5a, it drives the robot 1 to move the camera 22 in the X and Y directions by "1/2 pixel". The fiducial mark 5a is imaged again. FIG. 8A shows image data of the fiducial mark 5a.
【0026】カメラ22は、カメラ6と同様、同期信号
を含んだアナログの画像データを同期信号を基準に連続
して出力するものであり、例えば図3の露光期間Cでフ
ィデューシャルマーク5aが撮像される場合、この第1
の画像データは次の露光期間D内に転送される。この露
光期間D内にステージ1の搬送が行われ、次の露光期間
Eで「1/2画素」だけずれたフィデューシャルマーク
5aが撮像され、この第2の画像データは次の露光期間
F内に転送される。The camera 22, like the camera 6, continuously outputs analog image data including a synchronization signal on the basis of the synchronization signal. For example, the fiducial mark 5a is exposed during the exposure period C in FIG. When the image is taken, this first
Is transferred during the next exposure period D. The stage 1 is conveyed during this exposure period D, and a fiducial mark 5a shifted by “1 / pixel” is picked up in the next exposure period E, and the second image data is stored in the next exposure period F Will be transferred within.
【0027】画像処理装置7は、カメラ22からの第1
の画像データおよび第2の画像データを上述の手順で合
成する。このとき、第1の画像データに基づいて読出範
囲を設定し、読出範囲内で合成データを作成することに
基づいて、フィデューシャルマーク5aの中心位置,存
在範囲,境界位置,輪郭等の位置情報を検出し、ホスト
コントローラ3に与える。すると、ホストコントローラ
3は、ステージ1aの搬送量およびノズル2の回転量を
電子部品4の検出データおよびフィデューシャルマーク
5aの検出データに基づいて調整し、電子部品4を正規
姿勢でフィデューシャルマーク5a上に押付ける。The image processing device 7 includes a first
And the second image data are synthesized by the above-described procedure. At this time, the reading range is set based on the first image data, and the position of the center position, the existing range, the boundary position, the contour, etc. of the fiducial mark 5a is determined based on the creation of the combined data within the reading range. The information is detected and given to the host controller 3. Then, the host controller 3 adjusts the transport amount of the stage 1a and the rotation amount of the nozzle 2 based on the detection data of the electronic component 4 and the detection data of the fiducial mark 5a, and places the electronic component 4 in the normal posture in the fiducial position. Press on the mark 5a.
【0028】図1は、画像処理装置7のプログラムメモ
リ16に書込まれた制御プログラムを示すフローチャー
トであり、CPU17は、カメラ6からの画像データお
よびカメラ22からの画像データを図1の制御プログラ
ムに基づいて処理することに伴い、電子部品4およびフ
ィデユーシャルマーク5aを認識する。電子部品4の認
識動作およびフィデユーシャルマーク5aの認識動作は
同一であるため、以下、電子部品4の認識動作を代表し
て説明する。FIG. 1 is a flowchart showing a control program written in the program memory 16 of the image processing apparatus 7. The CPU 17 stores image data from the camera 6 and image data from the camera 22 in the control program shown in FIG. , The electronic component 4 and the fiducial mark 5a are recognized. Since the operation of recognizing the electronic component 4 and the operation of recognizing the fiducial mark 5a are the same, the operation of recognizing the electronic component 4 will be described below as a representative.
【0029】ホストコントローラ3は、電子部品4をカ
メラ6上で停止させると、CPU17に認識指示信号を
与える。すると、CPU17は、図1のステップS1か
らステップS2へ移行し、認識指示信号の受信から最初
の露光期間(例えば露光期間C)で電子部品4が撮像さ
れると判断し、ステップS3へ移行する。When the electronic controller 4 stops the electronic component 4 on the camera 6, the host controller 3 sends a recognition instruction signal to the CPU 17. Then, the CPU 17 proceeds from step S1 in FIG. 1 to step S2, determines that the electronic component 4 is imaged in the first exposure period (for example, the exposure period C) from the reception of the recognition instruction signal, and proceeds to step S3. .
【0030】CPU17は、ステップS3で露光期間C
の終了を判断すると、ステップS4へ移行し、ホストコ
ントローラ3に露光終了信号を与え、露光期間Cの終了
を知らせる。すると、ホストコントローラ3は、ロボッ
ト1のステージ1aを搬送し、電子部品4をカメラ6に
対して移動させる。The CPU 17 determines in step S3 that the exposure period C
When the end of the exposure period is determined, the process proceeds to step S4, where an exposure end signal is given to the host controller 3 to notify the end of the exposure period C. Then, the host controller 3 transports the stage 1 a of the robot 1 and moves the electronic component 4 with respect to the camera 6.
【0031】CPU17は、ホストコントローラ3に露
光期間Cの終了を知らせると、ステップS5へ移行し、
第1の画像データおよび第1の録画用画像アドレス信号
を第1のフレームメモリ10に与え、第1の画像データ
の録画を開始し、ステップS6へ移行する。ここで、電
子部品4が「1/2画素」だけ移動し、ホストコンピュ
ータ3から電子部品4の移動終了信号が与えられると、
ステップS7へ移行し、次の露光期間(例えば露光期間
E)で電子部品4が再度撮像されると判断し、ステップ
S8へ移行する。When the CPU 17 notifies the host controller 3 of the end of the exposure period C, the process proceeds to step S5,
The first image data and the first image address signal for recording are supplied to the first frame memory 10, and recording of the first image data is started, and the process proceeds to step S6. Here, when the electronic component 4 moves by “1 / pixel” and a movement end signal of the electronic component 4 is given from the host computer 3,
The process shifts to step S7, determines that the electronic component 4 is imaged again in the next exposure period (for example, the exposure period E), and shifts to step S8.
【0032】CPU17は、ステップS8へ移行する
と、第1のフレームメモリ10に記憶されている第1の
画像データのみを用いて電子部品4の輪郭等を検出す
る。そして、ステップS9へ移行し、露光期間Eの終了
を判断する。ここで、露光期間Eの終了を判断すると、
ステップS10へ移行し、第1の画像データの処理動作
を中断する。そして、第2の画像データおよび第2の録
画用画像アドレス信号を第2のフレームメモリ12に与
え、第2の画像データの録画を開始し、ステップS11
へ移行する。At step S8, the CPU 17 detects the contour of the electronic component 4 using only the first image data stored in the first frame memory 10. Then, the process shifts to step S9 to determine the end of the exposure period E. Here, when the end of the exposure period E is determined,
The process proceeds to step S10, and the processing operation of the first image data is interrupted. Then, the second image data and the second image address signal for recording are given to the second frame memory 12, and the recording of the second image data is started.
Move to.
【0033】CPU17は、ステップS11へ移行する
と、第1の画像データの処理を再開し、電子部品4の輪
郭等を検出する。そして、ステップS12へ移行し、検
出データに基づいて合成データの読出範囲を設定した
後、ステップS13へ移行する。尚、ステップS8およ
びS11で行われる処理は、第1の画像データ全体を走
査するものであるが、画素数が少ないため、検出時間が
短くて済む。At step S11, the CPU 17 resumes the processing of the first image data and detects the contour of the electronic component 4. Then, the process proceeds to step S12, and after setting the reading range of the combined data based on the detection data, the process proceeds to step S13. The processing performed in steps S8 and S11 scans the entire first image data. However, since the number of pixels is small, the detection time is short.
【0034】CPU17は、ステップS13で第2の画
像データの転送終了を判断すると、ステップS14へ移
行し、仮想的なアドレスF3 (V,H)を検出範囲内で
アドレス変換器19に与え、アドレスF3 (V,H)に
対応する第1のフレームメモリ10のアドレスF1
(V,H)および第2のフレームメモリ12のアドレス
F2 (V,H)を検出する。When the CPU 17 determines in step S13 that the transfer of the second image data has been completed, the process proceeds to step S14, where the virtual address F3 (V, H) is provided to the address converter 19 within the detection range, and Address F1 of the first frame memory 10 corresponding to F3 (V, H)
(V, H) and the address F2 (V, H) of the second frame memory 12 are detected.
【0035】CPU17は、アドレスF1 (V,H)お
よびアドレスF2 (V,H)を検出すると、アドレスF
1 (V,H)に対応する画素データおよびアドレスF2
(V,H)に対応する画素データを第1のフレームメモ
リ10および第2のフレームメモリ12から読出し、デ
ータ合成器20に与え、合成データを作成する。そし
て、読出範囲内の各アドレスF3 (V,H)について合
成データを作成し、電子部品4の輪郭等を合成データに
基づいて検出すると、ステップS15へ移行し、検出デ
ータをホストコピュータ3に与える。When the CPU 17 detects the address F1 (V, H) and the address F2 (V, H), the CPU 17 detects the address F1 (V, H).
1 pixel data and address F2 corresponding to (V, H)
The pixel data corresponding to (V, H) is read out from the first frame memory 10 and the second frame memory 12 and given to the data combiner 20 to create combined data. Then, composite data is created for each address F3 (V, H) within the read range, and when the outline of the electronic component 4 is detected based on the composite data, the process proceeds to step S15, and the detected data is provided to the host computer 3. .
【0036】上記実施例によれば、カメラ6から出力さ
れる第1の画像データと第2の画像データとを「画像ず
らし法」により合成したので、電子部品4の吸着姿勢が
合成データに基づいて高精度で検出される。しかも、カ
メラ22から出力される第1の画像データと第2の画像
データとを「画像ずらし法」により合成したので、フィ
デューシャルマーク5aの位置が高精度で検出される。
このため、電子部品4のプリント配線基板5に対する実
装精度が高まるので、信頼性が向上する。これと共に、
プリント配線基板5の歩留まりが向上し、プリント配線
基板5が小形化される。しかも、第1の画像データおよ
び第2の画像データを処理範囲内で読出して合成したの
で、画像データの処理時間が短くなる。According to the above embodiment, since the first image data and the second image data output from the camera 6 are synthesized by the "image shifting method", the suction attitude of the electronic component 4 is determined based on the synthesized data. Detected with high accuracy. In addition, since the first image data and the second image data output from the camera 22 are combined by the "image shifting method", the position of the fiducial mark 5a is detected with high accuracy.
For this reason, the mounting accuracy of the electronic component 4 on the printed wiring board 5 is increased, and the reliability is improved. With this,
The yield of the printed wiring board 5 is improved, and the size of the printed wiring board 5 is reduced. In addition, since the first image data and the second image data are read and combined within the processing range, the processing time of the image data is reduced.
【0037】また、第2の画像データの記憶中に第1の
画像データに基づいて電子部品4およびディフューシャ
ルマーク5aの位置情報を検出し、合成データの処理範
囲を設定した。このため、第2の画像データが記憶され
るのを待って位置情報および処理範囲を検出する必要が
なくなり、第2の画像データの記憶に要する時間が効率
的に使用されるので、処理時間が一層短縮される。Further, while the second image data is being stored, the position information of the electronic component 4 and the diffuse mark 5a is detected based on the first image data, and the processing range of the combined data is set. Therefore, there is no need to wait until the second image data is stored to detect the position information and the processing range, and the time required for storing the second image data is efficiently used. It is further shortened.
【0038】次に本発明の第2実施例を図9に基づいて
説明する。尚、上記第1実施例と同一の部材については
同一の符号を付して説明を省略し、以下、異なる部材に
ついてのみ説明を行う。画像処理装置7のプログラムメ
モリ16には、電子部品4の種類と制御プログラムの種
別とが対応付けて記憶されており、CPU17は、ホス
トコントローラ3から電子部品4の種類を特定する種類
データが与えられると、プログラムメモリ16の記憶デ
ータを参照し、画像処理を精密に行うか、粗く行うかを
判断する。Next, a second embodiment of the present invention will be described with reference to FIG. The same members as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. Hereinafter, only different members will be described. The type of the electronic component 4 and the type of the control program are stored in the program memory 16 of the image processing device 7 in association with each other, and the CPU 17 receives type data for specifying the type of the electronic component 4 from the host controller 3. Then, referring to the data stored in the program memory 16, it is determined whether to perform the image processing precisely or coarsely.
【0039】例えば、種類データが複雑な形状の電子部
品4を特定するものである場合、CPU17は、図1の
フローチャートに従って画像処理を実行し、電子部品4
の輪郭等を合成データに基づいて検出する。また、種類
データが簡単な形状の電子部品4を特定するものである
場合、図9のフローチャートに従って画像処理を実行
し、第1の画像データのみに基づいて電子部品4の輪郭
等を検出する。そして、フィデューシャルマーク5aの
精密位置情報と電子部品4の粗位置情報とに基づいて、
ステージ1aの搬送量およびノズル2の回転量を調整
し、電子部品4を正規姿勢でフィデューシャルマーク5
a上に押付ける。以下、図9のフローチャートについて
詳述する。For example, when the type data specifies an electronic component 4 having a complicated shape, the CPU 17 executes image processing according to the flowchart of FIG.
Are detected based on the composite data. If the type data specifies an electronic component 4 having a simple shape, image processing is executed in accordance with the flowchart of FIG. 9, and the contour and the like of the electronic component 4 are detected based on only the first image data. Then, based on the precise position information of the fiducial mark 5a and the coarse position information of the electronic component 4,
The transport amount of the stage 1a and the rotation amount of the nozzle 2 are adjusted, and the electronic component 4 is placed in the normal posture and the fiducial mark 5 is
Press on a. Hereinafter, the flowchart of FIG. 9 will be described in detail.
【0040】CPU17は、ホストコントローラ3から
認識指示信号が与えられると、ステップS21からステ
ップS22へ移行し、認識指示信号の受信から最初の露
光期間で電子部品4が撮像されると判断した後、ステッ
プS23へ移行する。そして、露光期間の終了を検出し
てステップS24へ移行し、第1の画像データの転送終
了を検出してステップS25へ移行する。ここで、第1
の画像データに基づいて電子部品4の輪郭等を検出する
と、ステップS26へ移行し、ホストコントローラ3に
検出結果を与える。When receiving the recognition instruction signal from the host controller 3, the CPU 17 proceeds from step S21 to step S22, and after determining that the electronic component 4 is imaged in the first exposure period after receiving the recognition instruction signal, Move to step S23. Then, the end of the exposure period is detected, and the process proceeds to step S24, and the end of the transfer of the first image data is detected, and the process proceeds to step S25. Here, the first
When the contour or the like of the electronic component 4 is detected based on the image data, the process proceeds to step S26, and the detection result is given to the host controller 3.
【0041】上記実施例によれば、第2の画像データの
撮像動作,第2の画像データの記憶動作,処理範囲の設
定動作,画像データの合成動作をホストコントローラ3
からの信号に基づいて選択的に実行した。このため、電
子部品4の形状が簡素で精密な認識動作を行う必要がな
い場合には、第1の画像データのみを用いて認識処理を
行うことができるので、画像処理が効率化される。According to the above-described embodiment, the host controller 3 performs the imaging operation of the second image data, the storage operation of the second image data, the operation of setting the processing range, and the operation of synthesizing the image data.
Selectively performed based on signals from For this reason, when the shape of the electronic component 4 is simple and it is not necessary to perform a precise recognition operation, the recognition processing can be performed using only the first image data, so that the image processing is made more efficient.
【0042】次に本発明の第3実施例を図10および図
11に基づいて説明する。尚、上記第1実施例と同一の
部材については同一の符号を付して説明を省略し、以
下、異なる部材についてのみ説明を行う。まず、図10
において、ロボット23のステージ23aは、Xサーボ
モータおよびYサーボモータ(いずれも図示せず)を駆
動源としてX方向およびY方向へ移動するものであり、
ステージ23aにはノズル24が上下動可能に装着され
ている。Next, a third embodiment of the present invention will be described with reference to FIGS. The same members as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. Hereinafter, only different members will be described. First, FIG.
, The stage 23a of the robot 23 moves in the X and Y directions using an X servo motor and a Y servo motor (both not shown) as driving sources,
A nozzle 24 is mounted on the stage 23a so as to be vertically movable.
【0043】ノズル24は接着剤を吐出するものであ
り、ホストコントローラ3は、予め記憶された制御プロ
グラムに基づいて下記〜の動作を実行し、プリント
配線基板5上に接着剤を塗布する。 ステージ23aをX方向およびY方向へ移動させ、ノ
ズル24をプリント配線基板5上に搬送する。 ノズル24を下降させ、プリント配線基板5に接着剤
を塗布した後、ノズル24を上昇させる。The nozzle 24 discharges an adhesive, and the host controller 3 executes the following operations based on a control program stored in advance to apply the adhesive on the printed wiring board 5. The stage 23a is moved in the X direction and the Y direction, and the nozzle 24 is transported onto the printed circuit board 5. After the nozzle 24 is lowered and the adhesive is applied to the printed wiring board 5, the nozzle 24 is raised.
【0044】ステージ23aには、撮像手段に相当する
カメラ25が取付けられている。このカメラ25はCC
D2次元カメラからなるものであり、ホストコントロー
ラ3は、カメラ25をプリント配線基板5のフィデュー
シャルマーク5a上で停止させ、画像処理装置7に認識
指示信号を出力する。A camera 25 corresponding to an image pickup means is mounted on the stage 23a. This camera 25 is CC
The host controller 3 stops the camera 25 on the fiducial mark 5 a of the printed wiring board 5 and outputs a recognition instruction signal to the image processing device 7.
【0045】画像処理装置7は、認識指示信号が与えら
れると、フィデューシャルマーク5aを撮像し、第1の
画像データに基づいてフィデューシャルマーク5aの中
心位置等を検出した後、中心位置等に基づいて処理範囲
を設定する。そして、第1の画像データおよび第2の画
像データを処理範囲内で読出して合成した後、合成デー
タに基づいてフィデューシャルマーク5aの位置情報を
検出し、ホストコントローラ3に与える。すると、ホス
トコントローラ3は、画像処理装置7の検出結果に基づ
いてノズル24の搬送量を調整し、プリント配線基板5
上の所定位置に接着剤を正確に塗布する。When the recognition instruction signal is given, the image processing device 7 picks up an image of the fiducial mark 5a, detects the center position and the like of the fiducial mark 5a based on the first image data. The processing range is set based on the above. Then, after reading and synthesizing the first image data and the second image data within the processing range, the position information of the fiducial mark 5 a is detected based on the synthesized data and provided to the host controller 3. Then, the host controller 3 adjusts the transport amount of the nozzle 24 based on the detection result of the image processing device 7 and
Apply the adhesive precisely to the upper predetermined position.
【0046】ホストコントローラ3は、試打ち時にステ
ージ23aをX方向およびY方向へ移動させ、ノズル2
4をプリント配線基板5上に搬送する。そして、ノズル
24を下降させ、プリント配線基板5に接着剤を塗布し
た後、ノズル24を上昇させる。そして、カメラ25を
プリント配線基板5上に移動させ、画像処理装置7に認
識指示信号を出力する。The host controller 3 moves the stage 23a in the X and Y directions at the time of trial
4 is conveyed onto the printed wiring board 5. Then, the nozzle 24 is lowered to apply the adhesive to the printed wiring board 5, and then the nozzle 24 is raised. Then, the camera 25 is moved onto the printed circuit board 5 and outputs a recognition instruction signal to the image processing device 7.
【0047】画像処理装置7は、認識指示信号が与えら
れると、接着剤を撮像し、第1の画像データに基づいて
接着剤の中心位置,径寸法等を検出した後、検出結果に
基づいて処理範囲を設定する。尚、図11の(a)はカ
メラ25から出力される接着剤26の画像データ、
(b)の二点鎖線αはCPU17が設定する処理範囲で
ある。When the recognition instruction signal is given, the image processing device 7 takes an image of the adhesive, detects the center position, the diameter and the like of the adhesive based on the first image data, and then, based on the detection result. Set the processing range. 11A shows image data of the adhesive 26 output from the camera 25,
The two-dot chain line α in (b) is a processing range set by the CPU 17.
【0048】画像処理装置7は、処理範囲を設定する
と、第1の画像データおよび第2の画像データを処理範
囲内で読出して合成した後、合成データに基づいて接着
剤26の径寸法等を検出し、ホストコントローラ3に与
える。すると、ホストコントローラ3は、画像処理装置
7からの検出結果に基づいてノズル24による接着剤2
6の吐出動作を調整し、接着剤26の径寸法を適性化す
る。After setting the processing range, the image processing device 7 reads out the first image data and the second image data within the processing range and combines them, and then determines the diameter and the like of the adhesive 26 based on the combined data. Detected and given to the host controller 3. Then, based on the detection result from the image processing device 7, the host controller 3
6 is adjusted to optimize the diameter of the adhesive 26.
【0049】上記実施例によれば、プリント配線基板5
上に接着剤26を正確に塗布できるので、電子部品4を
実装するにあたって、電子部品4が接着剤26上に正確
に押付けられる。このため、電子部品4がプリント配線
基板5に確実に固定されるので、信頼性が向上する。し
かも、接着剤26の塗布面積を正確に設定することがで
きるので、この点からも、電子部品4がプリント配線基
板5に確実に固定され、信頼性が向上する。According to the above embodiment, the printed wiring board 5
Since the adhesive 26 can be applied accurately on the top, the electronic component 4 is accurately pressed on the adhesive 26 when the electronic component 4 is mounted. Therefore, the electronic component 4 is securely fixed to the printed wiring board 5, so that the reliability is improved. In addition, since the application area of the adhesive 26 can be accurately set, the electronic component 4 is securely fixed to the printed wiring board 5 from this point, and the reliability is improved.
【0050】次に本発明の第4実施例を図12に基づい
て説明する。尚、上記第1実施例と同一の部材について
は同一の符号を付して説明を省略し、以下、異なる部材
についてのみ説明を行う。ロボット27のステージ27
aは、Xサーボモータ(図示せず)を駆動源としてX方
向へ移動するものであり、ステージ27aにはスキージ
28が装着されている。Next, a fourth embodiment of the present invention will be described with reference to FIG. The same members as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. Hereinafter, only different members will be described. Stage 27 of robot 27
The reference character a moves in the X direction using an X servo motor (not shown) as a drive source, and a squeegee 28 is mounted on the stage 27a.
【0051】ロボット29のステージ29aは、Xサー
ボモータ,Yサーボモータ,θサーボモータ(いずれも
図示せず)を駆動源としてX方向,Y方向,θ方向へ移
動するものであり、ステージ29aにはプリント配線基
板5がセットされ、プリント配線基板5上にはメタルマ
スク30が装着されている。The stage 29a of the robot 29 moves in the X, Y, and θ directions using an X servo motor, a Y servo motor, and a θ servo motor (all not shown) as driving sources. The printed wiring board 5 is set, and a metal mask 30 is mounted on the printed wiring board 5.
【0052】メタルマスク30には、プリント配線基板
5の各ランドに対応して開口部が形成されている。そし
て、メタルマスク30の左端部にはクリーム半田が塗布
されており、ホストコントローラ3は、ステージ29a
の位置をX方向,Y方向,θ方向を変えながら下記の
動作を繰返す。ステージ27aをX方向へ搬送し、ス
キージ28によりメタルマスク30上を払拭する。そし
て、メタルマスク30上のクリーム半田をメタルマスク
30の開口部を通してプリント配線基板5のランド上に
塗布する。Openings are formed in the metal mask 30 corresponding to the lands of the printed wiring board 5. Then, cream solder is applied to the left end of the metal mask 30, and the host controller 3 controls the stage 29a.
The following operation is repeated while changing the position of X in the X, Y, and θ directions. The stage 27 a is transported in the X direction, and the squeegee 28 is used to wipe the metal mask 30. Then, the cream solder on the metal mask 30 is applied to the land of the printed wiring board 5 through the opening of the metal mask 30.
【0053】ロボット27の側方には、撮像手段に相当
するカメラ31が配設されている。このカメラ31はC
CD2次元カメラからなるものであり、ホストコントロ
ーラ3は、ロボット29のステージ29aを移動させる
ことに伴い、プリント配線基板5のフィデューシャルマ
ーク5aをカメラ31の下方で停止させ、画像処理装置
7に認識信号を出力する。On the side of the robot 27, a camera 31 corresponding to an imaging means is provided. This camera 31 is C
The host controller 3 stops the fiducial mark 5a of the printed wiring board 5 below the camera 31 in accordance with the movement of the stage 29a of the robot 29. Output recognition signal.
【0054】画像処理装置7は、認識指示信号が与えら
れると、フィデューシャルマーク5aを撮像し、第1の
画像データに基づいてフィデューシャルマーク5aの中
心位置等を検出した後、中心位置等に基づいて処理範囲
を設定する。そして、第1の画像データおよび第2の画
像データを処理範囲内で読出して合成した後、合成デー
タに基づいてフィデューシャルマーク5aの位置情報を
検出し、ホストコントローラ3に与える。すると、ホス
トコントローラ3は、ステージ29aの搬送量を調整し
ながらステージ29aをX方向,Y方向,θ方向に位置
ずれさせ、プリント配線基板5のランド上にクリーム半
田を正確に塗布する。When the recognition instruction signal is given, the image processing device 7 picks up an image of the fiducial mark 5a, detects the center position and the like of the fiducial mark 5a based on the first image data. The processing range is set based on the above. Then, after reading and synthesizing the first image data and the second image data within the processing range, the position information of the fiducial mark 5 a is detected based on the synthesized data and provided to the host controller 3. Then, the host controller 3 shifts the stage 29a in the X, Y, and θ directions while adjusting the transport amount of the stage 29a, and applies the cream solder accurately on the lands of the printed wiring board 5.
【0055】上記実施例によれば、プリント配線基板5
のランド上にクリーム半田を正確に塗布できるので、電
子部品4を実装するにあたって、電子部品4がクリーム
半田上に正確に押付けられる。このため、電子部品4が
プリント配線基板5に確実に固定されるので、信頼性が
向上する。According to the above embodiment, the printed wiring board 5
Can be applied accurately to the land, so that the electronic component 4 is accurately pressed onto the cream solder when mounting the electronic component 4. Therefore, the electronic component 4 is securely fixed to the printed wiring board 5, so that the reliability is improved.
【0056】尚、上記第1〜第4実施例においては、第
1の画像データに基づいて処理範囲を設定したが、これ
に限定されるものではなく、例えば第2の画像データに
基づいて処理範囲を設定しても良い。In the first to fourth embodiments, the processing range is set based on the first image data. However, the present invention is not limited to this. For example, the processing range is set based on the second image data. A range may be set.
【0057】また、上記第1〜第4実施例においては、
処理範囲の設定動作,画像データの撮像動作,画像デー
タの記憶動作等をマイクロコンピュータのソフトウェア
構成に基づいて実行したが、ハードウェア構成(電気回
路)により実行しても良い。また、上記第1〜第4実施
例においては、ホストコントローラ3と画像処理装置7
とを独立させたが、これに限定されるものではなく、例
えば画像処理装置7がステージ1a,23a,27a,
29a等を搬送制御する構成としても良い。In the first to fourth embodiments,
The operation of setting the processing range, the operation of capturing image data, the operation of storing image data, and the like are performed based on the software configuration of the microcomputer, but may be performed by a hardware configuration (electric circuit). In the first to fourth embodiments, the host controller 3 and the image processing device 7
Are independent of each other, but the present invention is not limited to this. For example, the image processing device 7 includes the stages 1a, 23a, 27a,
It is also possible to adopt a configuration in which the transport control is performed on 29a and the like.
【0058】[0058]
【発明の効果】以上の説明から明らかなように、本発明
の画像処理装置は次の効果を奏する。請求項1記載の手
段によれば、第1の画像データおよび第2の画像データ
を処理範囲内で読出して合成したので、画像データの合
成を短時間で行うことができ、しかも、対象物の高精度
な認識が可能になる。As is clear from the above description, the image processing apparatus of the present invention has the following effects. According to the first aspect of the present invention, the first image data and the second image data are read out within the processing range and synthesized, so that the synthesis of the image data can be performed in a short time, and furthermore, the object data can be obtained. Highly accurate recognition becomes possible.
【0059】請求項2記載の手段によれば、第2の画像
データの記憶中に第1の画像データに基づいて処理範囲
を設定したので、第2の画像データの記憶に要する時間
が効率的に使用され、画像データの処理時間が一層短く
なる。請求項3記載の手段によれば、認識対象の形状が
簡素で精密な認識動作を行う必要がない場合には、第1
の画像データのみを用いて認識処理を行うことができる
ので、画像処理が効率化される。According to the second aspect, the processing range is set based on the first image data during the storage of the second image data, so that the time required for storing the second image data is efficient. And the processing time of the image data is further reduced. According to the means described in claim 3, when the shape of the recognition target is simple and there is no need to perform a precise recognition operation, the first
Since the recognition process can be performed using only the image data, the image processing is made more efficient.
【図1】本発明の第1実施例を示す図(画像処理装置の
制御内容を示す図)FIG. 1 is a diagram showing a first embodiment of the present invention (a diagram showing control contents of an image processing apparatus).
【図2】画像処理装置を示すブロック図FIG. 2 is a block diagram illustrating an image processing apparatus.
【図3】画像処理のタイミングチャートFIG. 3 is a timing chart of image processing.
【図4】画像ずらし法を説明するための図FIG. 4 is a diagram for explaining an image shifting method.
【図5】部品実装装置を概略的に示す図FIG. 5 is a diagram schematically showing a component mounting apparatus.
【図6】(a)は電子部品の画像データを示す図、
(b)は画像データの処理範囲を示す図FIG. 6A is a diagram showing image data of an electronic component,
(B) is a diagram showing a processing range of image data.
【図7】(a)は別の電子部品の画像データを示す図、
(b)は画像データの処理範囲を示す図FIG. 7A is a diagram showing image data of another electronic component;
(B) is a diagram showing a processing range of image data.
【図8】(a)は基準マークの画像データを示す図、
(b)は画像データの処理範囲を示す図FIG. 8A is a diagram showing image data of a reference mark,
(B) is a diagram showing a processing range of image data.
【図9】本発明の第2実施例を示す図(画像処理装置の
別の制御内容を示すフローチャート)FIG. 9 is a diagram illustrating a second embodiment of the present invention (a flowchart illustrating another control content of the image processing apparatus).
【図10】本発明の第3実施例を示す図(接着剤塗布装
置を概略的に示す図)FIG. 10 is a view showing a third embodiment of the present invention (a view schematically showing an adhesive application device).
【図11】(a)は接着剤の画像データを示す図、
(b)は画像データの処理範囲を示す図FIG. 11A is a diagram showing image data of an adhesive;
(B) is a diagram showing a processing range of image data.
【図12】本発明の第4実施例を示す図(クリーム半田
塗布装置を概略的に示す図)FIG. 12 is a view showing a fourth embodiment of the present invention (a view schematically showing a cream solder applying apparatus).
【図13】画像ずらし法を説明するための図FIG. 13 is a diagram for explaining an image shifting method.
6はカメラ(撮像手段)、7は画像処理装置、10は第
1のフレームメモリ(第1の記憶手段)、12は第2の
フレームメモリ(第2の記憶手段)、17はCPU(設
定手段,選択実行手段)、20はデータ合成器(合成手
段)、22はカメラ(撮像手段)、25はカメラ(撮像
手段)、31はカメラ(撮像手段)を示す。6 is a camera (imaging means), 7 is an image processing device, 10 is a first frame memory (first storage means), 12 is a second frame memory (second storage means), and 17 is a CPU (setting means). , Selection execution means), 20 is a data synthesizer (synthesis means), 22 is a camera (imaging means), 25 is a camera (imaging means), and 31 is a camera (imaging means).
Claims (3)
タに対して画素が位置ずれした第2の画像データを出力
する撮像手段と、 前記撮像手段から出力される第1の画像データを記憶す
る第1の記憶手段と、 前記撮像手段から出力される第2の画像データを記憶す
る第2の記憶手段と、 前記第1の記憶手段に記憶された第1の画像データある
いは前記第2の記憶手段に記憶された第2の画像データ
に基づいて処理範囲を設定する設定手段と、 前記第1の記憶手段および前記第2の記憶手段から第1
の画像データおよび第2の画像データを処理範囲内で読
出して合成する合成手段とを備えたことを特徴とする画
像処理装置。An imaging unit that outputs first image data and second image data whose pixels are displaced from the first image data; and stores first image data output from the imaging unit. A first storage unit that stores the second image data output from the imaging unit; a first storage unit that stores the first image data or the second image data that is stored in the first storage unit. Setting means for setting a processing range based on the second image data stored in the storage means; and a first setting means for setting the processing range from the first storage means and the second storage means.
And a synthesizing means for reading and synthesizing the image data and the second image data within a processing range.
は第1の画像データおよび第2の画像データが該順序で
記憶され、 設定手段は、第2の画像データの記憶中に第1の画像デ
ータに基づいて処理範囲を設定することを特徴とする請
求項1記載の画像処理装置。2. The image processing apparatus according to claim 1, wherein the first image data and the second image data are stored in the first storage device and the second storage device in the order, and the setting device outputs the first image data and the second image data during the storage of the second image data. 2. The image processing apparatus according to claim 1, wherein a processing range is set based on one image data.
像データの記憶動作,処理範囲の設定動作,画像データ
の合成動作を外部からの信号に基づいて選択的に実行す
る選択実行手段を備えたことを特徴とする請求項1記載
の画像処理装置。3. Selection executing means for selectively executing an image pickup operation of the second image data, an operation of storing the second image data, an operation of setting a processing range, and an operation of synthesizing the image data based on an external signal. The image processing apparatus according to claim 1, further comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9358249A JPH11191157A (en) | 1997-12-25 | 1997-12-25 | Image processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9358249A JPH11191157A (en) | 1997-12-25 | 1997-12-25 | Image processing device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH11191157A true JPH11191157A (en) | 1999-07-13 |
Family
ID=18458309
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP9358249A Pending JPH11191157A (en) | 1997-12-25 | 1997-12-25 | Image processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH11191157A (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005210608A (en) * | 2004-01-26 | 2005-08-04 | Seiko Epson Corp | Piezoelectric device manufacturing method and piezoelectric device manufacturing apparatus |
| JP2010021248A (en) * | 2008-07-09 | 2010-01-28 | Fuji Mach Mfg Co Ltd | Component image capturing device and component image capturing method |
| WO2015049723A1 (en) * | 2013-10-01 | 2015-04-09 | 富士機械製造株式会社 | Assembly machine |
| WO2015083220A1 (en) | 2013-12-02 | 2015-06-11 | 富士機械製造株式会社 | Assembly machine |
| WO2015136669A1 (en) * | 2014-03-13 | 2015-09-17 | 富士機械製造株式会社 | Image processing device and substrate production system |
| WO2016174727A1 (en) * | 2015-04-28 | 2016-11-03 | 富士機械製造株式会社 | Inspecting device and inspecting method |
| WO2017006416A1 (en) * | 2015-07-06 | 2017-01-12 | 富士機械製造株式会社 | Mounting device, photographic processing method, and photographic unit |
| WO2018203373A1 (en) * | 2017-05-01 | 2018-11-08 | 株式会社Fuji | Mounting device, information processing device, mounting system, mounting method, and information processing method |
| EP3407696A4 (en) * | 2016-01-19 | 2019-01-16 | Fuji Corporation | MOUNTING APPARATUS AND IMAGE PROCESSING METHOD |
-
1997
- 1997-12-25 JP JP9358249A patent/JPH11191157A/en active Pending
Cited By (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005210608A (en) * | 2004-01-26 | 2005-08-04 | Seiko Epson Corp | Piezoelectric device manufacturing method and piezoelectric device manufacturing apparatus |
| JP2010021248A (en) * | 2008-07-09 | 2010-01-28 | Fuji Mach Mfg Co Ltd | Component image capturing device and component image capturing method |
| WO2015049723A1 (en) * | 2013-10-01 | 2015-04-09 | 富士機械製造株式会社 | Assembly machine |
| JPWO2015049723A1 (en) * | 2013-10-01 | 2017-03-09 | 富士機械製造株式会社 | Assembly machine |
| WO2015083220A1 (en) | 2013-12-02 | 2015-06-11 | 富士機械製造株式会社 | Assembly machine |
| EP3079452A4 (en) * | 2013-12-02 | 2016-11-30 | Fuji Machine Mfg | ASSEMBLY MACHINE |
| US9980420B2 (en) | 2013-12-02 | 2018-05-22 | Fuji Machine Mfg. Co., Ltd. | Assembling machine |
| JPWO2015083220A1 (en) * | 2013-12-02 | 2017-03-16 | 富士機械製造株式会社 | Assembly machine |
| WO2015136669A1 (en) * | 2014-03-13 | 2015-09-17 | 富士機械製造株式会社 | Image processing device and substrate production system |
| CN106104195A (en) * | 2014-03-13 | 2016-11-09 | 富士机械制造株式会社 | Image processing apparatus and substrate production system |
| US11004177B2 (en) | 2014-03-13 | 2021-05-11 | Fuji Corporation | Image processing device and board production system |
| JPWO2015136669A1 (en) * | 2014-03-13 | 2017-04-06 | 富士機械製造株式会社 | Image processing apparatus and substrate production system |
| CN106104195B (en) * | 2014-03-13 | 2019-01-29 | 株式会社富士 | Image processing apparatus and substrate production system |
| WO2016174727A1 (en) * | 2015-04-28 | 2016-11-03 | 富士機械製造株式会社 | Inspecting device and inspecting method |
| JPWO2016174727A1 (en) * | 2015-04-28 | 2017-11-30 | 富士機械製造株式会社 | Inspection apparatus and inspection method |
| JPWO2017006416A1 (en) * | 2015-07-06 | 2018-04-26 | 富士機械製造株式会社 | Mounting apparatus, imaging processing method, and imaging unit |
| US10205859B2 (en) | 2015-07-06 | 2019-02-12 | Fuji Corporation | Mounting device, image processing method, and imaging unit |
| WO2017006416A1 (en) * | 2015-07-06 | 2017-01-12 | 富士機械製造株式会社 | Mounting device, photographic processing method, and photographic unit |
| EP3407696A4 (en) * | 2016-01-19 | 2019-01-16 | Fuji Corporation | MOUNTING APPARATUS AND IMAGE PROCESSING METHOD |
| WO2018203373A1 (en) * | 2017-05-01 | 2018-11-08 | 株式会社Fuji | Mounting device, information processing device, mounting system, mounting method, and information processing method |
| JPWO2018203373A1 (en) * | 2017-05-01 | 2019-12-12 | 株式会社Fuji | Mounting apparatus, information processing apparatus, mounting system, mounting method, and information processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPH11191157A (en) | Image processing device | |
| JPH11196362A (en) | Imaging device and imaging image processing method | |
| JPH0535849A (en) | Teaching data creation method | |
| JP4387900B2 (en) | Mounting board inspection method and inspection apparatus | |
| US20030017758A1 (en) | Apparatus for and method of mounting electronic parts | |
| JP4172728B2 (en) | Image processing method | |
| JP2005064026A (en) | Component mounting device | |
| JP3057348B2 (en) | Board drilling method and board drilling machine | |
| JPH04250700A (en) | Mounting method for electronic component | |
| JP3417603B2 (en) | Component inspection equipment for mounting machines | |
| JP3984341B2 (en) | Electronic component mounting method and electronic component mounting machine | |
| JP3406975B2 (en) | Mounting device | |
| JP2907246B2 (en) | Component mounting equipment | |
| JPH10200297A (en) | Electronic component mounting equipment | |
| JP2003304097A (en) | Component mounting method and device | |
| JP4172757B2 (en) | Component mounting equipment | |
| JPS61145402A (en) | Image pick-up apparatus | |
| JP2025167857A (en) | Workpiece mounting device | |
| JPH06216579A (en) | Electronic component mounting device | |
| JP2000223896A (en) | Electronic component mounting method and device | |
| JPH09326594A (en) | Electronic component mounting method | |
| JPH05143739A (en) | Image processor | |
| JP2000214098A (en) | Substrate appearance inspection method and apparatus | |
| JP2003273590A (en) | Electronic component mounting method and electronic component mounting device | |
| JPH1123240A (en) | Component recognition method, component recognition device, and component mounting device |