JP2010161686A - Imaging method, picking method and picking apparatus - Google Patents
Imaging method, picking method and picking apparatus Download PDFInfo
- Publication number
- JP2010161686A JP2010161686A JP2009003246A JP2009003246A JP2010161686A JP 2010161686 A JP2010161686 A JP 2010161686A JP 2009003246 A JP2009003246 A JP 2009003246A JP 2009003246 A JP2009003246 A JP 2009003246A JP 2010161686 A JP2010161686 A JP 2010161686A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- workpiece
- imaging device
- image
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 206
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000004364 calculation method Methods 0.000 claims description 48
- 238000012937 correction Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 12
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 description 40
- 230000006870 function Effects 0.000 description 31
- 238000005315 distribution function Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000007704 transition Effects 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000000449 premovement Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000003702 image correction Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003028 elevating effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000009751 slip forming Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、撮像方法、ピッキング方法及びピッキング装置にかかわり、特に、撮像した画像を補正する方法に関するものである。 The present invention relates to an imaging method, a picking method, and a picking apparatus, and more particularly to a method for correcting a captured image.
ワークを把持するときや加工するときに、視覚センサ等を用いてワークの位置を認識することがある。その後、ワークを把持または加工する。このとき、ワークと視覚センサとを停止して撮像して静止画像を生成する。次に、静止画像を分析することによりワークの位置や姿勢を精度良く検出する方法が一般的に行われている。生産性良く撮像する方法が特許文献1に開示されている。それによると、ワークに対して視覚センサ(以後、撮像装置と称す)を移動して接近させる。そして、撮像装置を停止せずにワークを撮影して、画像を生成する。次に、撮像装置の角度と画像とを分析することによりワークの位置を検出していた。
When gripping or processing a workpiece, the position of the workpiece may be recognized using a visual sensor or the like. Thereafter, the workpiece is gripped or processed. At this time, the work and the visual sensor are stopped and imaged to generate a still image. Next, a method of detecting the position and posture of a workpiece with high accuracy by analyzing a still image is generally performed. A method for imaging with high productivity is disclosed in
撮像装置がワークを撮像するときに、撮像する間にワークが移動するとワークの画像の輪郭が曖昧になるブレが形成される。そして、ブレを補正して輪郭を明確にする方法が特許文献2に開示されている。それによると、撮影した画像からブレの方向や大きさを示す点広がり関数(PointSpreadFunction、PSFともいわれ、以後、点像分布関数と称す)を算出した後、点像分布関数を用いて画像復元フィルタを生成する。そして、画像復元フィルタを撮像した画像に適用することにより画像のブレを補正していた。
When the imaging device images a workpiece, if the workpiece moves during imaging, a blur is formed that makes the contour of the workpiece image unclear. A method of correcting the blur and clarifying the contour is disclosed in
撮影した画像からブレを小さくするには、点像分布関数を精度良く検出することが有効であることが知られている。そして、点像分布関数を精度良く検出する方法が特許文献3に開示されている。それによると、撮像装置に角速度センサを配置して、撮像装置が移動するときの角速度を検出している。そして、撮像装置における角速度の推移を用いて点像分布関数を検出していた。
It is known that it is effective to detect a point spread function with high accuracy in order to reduce blur from a photographed image. A method for accurately detecting a point spread function is disclosed in
ワークと撮像装置との相対位置を変化させながら撮像するとき、撮像した画像にブレが生ずる。このとき、ワークの形状、姿勢、位置等の情報を正確に検出することが難しかった。そこで、ワークと撮像装置との相対位置を変化させながら撮像するときにも、ブレの少ない画像を生成する方法が望まれていた。 When an image is captured while changing the relative position between the workpiece and the imaging device, the captured image is blurred. At this time, it was difficult to accurately detect information such as the shape, posture, and position of the workpiece. Therefore, there has been a demand for a method of generating an image with less blur even when imaging is performed while changing the relative position between the workpiece and the imaging device.
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。 SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.
[適用例1]
本適用例にかかる撮像方法は、撮像装置を用いてワークを撮像する撮像方法であって、変形する可動部を用いて前記撮像装置と前記ワークとのうち少なくとも一方を移動する移動工程と、前記移動工程と並行して行われ前記ワークを撮像する撮像工程と、前記撮像装置と前記ワークとが相対移動する移動軌跡を演算する軌跡算出工程と、前記移動軌跡の情報を用いて撮像した画像を補正する補正工程と、を有し、前記移動工程では前記可動部の姿勢を検出し、前記軌跡算出工程では可動部における前記姿勢の情報である姿勢情報を用いて前記ワークに対する前記撮像装置の前記移動軌跡を算出することを特徴とする。
[Application Example 1]
The imaging method according to this application example is an imaging method of imaging a workpiece using an imaging device, and a moving step of moving at least one of the imaging device and the workpiece using a deformable movable unit; An imaging step that is performed in parallel with the moving step, images the workpiece, a trajectory calculating step that calculates a moving trajectory in which the imaging device and the workpiece move relative to each other, and an image that is captured using the information on the moving trajectory. A correction step for correcting, wherein in the movement step, the posture of the movable portion is detected, and in the trajectory calculation step, the posture information of the posture in the movable portion is used to determine the posture of the imaging device with respect to the workpiece. The movement trajectory is calculated.
この撮像方法によれば、ワークと撮像装置とのうち少なくとも一方を移動しながらワークを撮像する。このとき、撮像する画像にはブレが生成され易くなっている。移動工程では可動部の姿勢を検出する。そして、軌跡算出工程では可動部の姿勢が変化する情報を用いてワークに対する撮像装置の移動軌跡を算出している。そして、補正工程では移動軌跡の情報を用いることにより撮像した画像の補正を行っている。従って、ワークの位置と撮像装置の位置とを直接検出しなくても撮像した画像を補正することができる。 According to this imaging method, the workpiece is imaged while moving at least one of the workpiece and the imaging device. At this time, blur is easily generated in the image to be captured. In the moving process, the posture of the movable part is detected. In the trajectory calculation step, the movement trajectory of the imaging device with respect to the workpiece is calculated using information that changes the attitude of the movable part. In the correction process, the captured image is corrected by using the information of the movement trajectory. Therefore, the captured image can be corrected without directly detecting the position of the workpiece and the position of the imaging device.
[適用例2]
上記適用例にかかる撮像方法において、前記移動工程では前記姿勢情報を記憶部に記憶し、前記軌跡算出工程では前記記憶部に記憶した前記姿勢情報を再生して前記撮像装置の移動軌跡を演算することを特徴とする。
[Application Example 2]
In the imaging method according to the application example, in the moving step, the posture information is stored in a storage unit, and in the locus calculation step, the posture information stored in the storage unit is reproduced to calculate a movement locus of the imaging device. It is characterized by that.
この撮像方法によれば、移動工程では可動部の姿勢の情報を記憶部に記憶している。そして、軌跡算出工程では可動部の姿勢の情報を再生している。従って、移動工程と軌跡算出工程とは並行せずに行うことができる。軌跡算出工程における演算速度に影響されることなく、移動工程では撮像装置とワークとのうち少なくとも一方を移動することができる。 According to this imaging method, in the moving process, information on the posture of the movable part is stored in the storage unit. In the trajectory calculation step, information on the posture of the movable part is reproduced. Therefore, the movement process and the trajectory calculation process can be performed without being performed in parallel. In the moving process, at least one of the imaging device and the workpiece can be moved without being affected by the calculation speed in the trajectory calculating process.
[適用例3]
上記適用例にかかる撮像方法において、前記移動工程において前記撮像装置が撮像するとき、前記撮像装置の光軸方向と直交する方向に前記可動部は前記撮像装置を移動させることを特徴とする。
[Application Example 3]
In the imaging method according to the application example, when the imaging device captures an image in the moving step, the movable unit moves the imaging device in a direction orthogonal to the optical axis direction of the imaging device.
この撮像方法によれば、撮像装置とワークとの距離の変動を小さくして撮像することができる。従って、撮像する画像はピンぼけの少ない画像にすることができる。このピンぼけは撮像装置が撮像するときに焦点が合わないことによりぼけることを示す。 According to this imaging method, imaging can be performed with a small variation in the distance between the imaging device and the workpiece. Therefore, an image to be captured can be an image with less defocus. This defocusing indicates that the image pickup apparatus is out of focus when taking an image.
[適用例4]
上記適用例にかかる撮像方法において、前記補正工程では前記ワークに対する前記撮像装置の前記移動軌跡の情報を用いて点像分布関数を演算し、前記点像分布関数を用いて復元フィルタを演算し、前記復元フィルタを用いて前記画像を補正することを特徴とする。
[Application Example 4]
In the imaging method according to the application example, in the correction step, a point spread function is calculated using information on the movement trajectory of the imaging device with respect to the workpiece, a restoration filter is calculated using the point spread function, The image is corrected using the restoration filter.
この撮像方法によれば、ワークに対する撮像装置の移動軌跡を用いて点像分布関数を演算する為、精度良く点像分布関数を算出することができる。その結果、精度良く画像を補正することができる。 According to this imaging method, since the point spread function is calculated using the movement trajectory of the imaging device relative to the workpiece, the point spread function can be calculated with high accuracy. As a result, the image can be corrected with high accuracy.
[適用例5]
上記適用例にかかる撮像方法を用いたピッキング方法において、前記補正工程にて補正した補正画像を用いて前記ワークの場所を検出する位置認識工程と、前記ワークを把持して移動するワーク移動工程と、を有することを特徴とする。
[Application Example 5]
In the picking method using the imaging method according to the application example, a position recognition step for detecting the location of the workpiece using the correction image corrected in the correction step, and a workpiece movement step for gripping and moving the workpiece. It is characterized by having.
このピッキング方法によれば、精度良く補正された画像を用いてワークの場所を検出している。従って、ワークの位置を精度良く認識することができる。 According to this picking method, the location of the workpiece is detected using an image corrected with high accuracy. Therefore, the position of the workpiece can be recognized with high accuracy.
[適用例6]
本適用例にかかるピッキング装置は、ワークを把持して移動するピッキング装置であって、前記ワークを把持する把持部と、前記ワークを撮像する撮像装置と、前記ワーク及び前記撮像装置のうち少なくとも一方を移動する可動部と、前記可動部の姿勢を検出して前記可動部の姿勢を示す姿勢情報を出力する可動部姿勢検出部と、前記姿勢情報を用いて前記撮像装置と前記ワークとが相対移動する移動軌跡を演算する軌跡演算部と、前記移動軌跡の情報を用いて前記撮像装置が画像を補正した補正画像を形成する補正部と、前記補正画像を用いて前記ワークの場所を検出する位置検出部と、を有し、前記軌跡演算部は前記姿勢情報を用いて前記移動軌跡を算出することを特徴とする。
[Application Example 6]
The picking device according to this application example is a picking device that grips and moves a workpiece, and is a gripping unit that grips the workpiece, an imaging device that images the workpiece, and at least one of the workpiece and the imaging device. A movable portion that detects the posture of the movable portion and outputs posture information indicating the posture of the movable portion, and the imaging device and the workpiece are relative to each other using the posture information. A trajectory calculation unit that calculates a moving trajectory, a correction unit that forms a correction image obtained by correcting the image using the information on the movement trajectory, and a location of the workpiece using the correction image. A position detection unit, wherein the locus calculation unit calculates the movement locus using the posture information.
このピッキング装置によれば、可動部がワーク及び撮像装置のうち少なくとも一方を移動しながら、撮像装置がワークを撮像することができる。そして、可動部姿勢検出部が可動部の姿勢を検出した後、軌跡演算部がワークに対する撮像装置の移動軌跡の情報を算出する。そして、補正部は移動軌跡の情報を用いて撮像した画像を補正する。位置検出部は補正した画像を用いてワークの場所を検出し、把持部はワークを把持して移動することができる。 According to the picking device, the imaging device can image the workpiece while the movable unit moves at least one of the workpiece and the imaging device. And after a movable part attitude | position detection part detects the attitude | position of a movable part, a locus | trajectory calculation part calculates the information of the movement locus | trajectory of the imaging device with respect to a workpiece | work. The correction unit corrects the captured image using the information on the movement locus. The position detection unit detects the location of the workpiece using the corrected image, and the gripping unit can grip and move the workpiece.
[適用例7]
上記適用例にかかるピッキング装置において、前記可動部姿勢検出部が検出する前記姿勢情報を記憶する記憶部を有し、前記軌跡演算部は前記姿勢情報を再生して入力することを特徴とする。
[Application Example 7]
In the picking device according to the application example described above, the picking device includes a storage unit that stores the posture information detected by the movable portion posture detection unit, and the trajectory calculation unit reproduces and inputs the posture information.
このピッキング装置によれば、記憶部は姿勢情報を記憶し、軌跡演算部は可動部の姿勢情報を再生している。従って、ワーク及び撮像装置のうち少なくとも一方の移動と移動軌跡の演算とは並行せずに行うことができる。移動軌跡の演算速度に影響されることなく、可動部はワーク及び撮像装置のうち少なくとも一方を移動することができる。 According to this picking apparatus, the storage unit stores the posture information, and the trajectory calculation unit reproduces the posture information of the movable unit. Therefore, the movement of at least one of the workpiece and the imaging device and the calculation of the movement locus can be performed in parallel. The movable part can move at least one of the workpiece and the imaging device without being affected by the calculation speed of the movement locus.
[適用例8]
上記適用例にかかる撮像方法において、前記可動部は可動する複数の可動要素を有し、前記移動工程において前記撮像装置が撮像するとき、前記可動部は複数の前記可動要素のうち1つの前記可動要素を移動して変形し、前記撮像装置の光軸方向と直交する方向に前記撮像装置を移動させることを特徴とする。
[Application Example 8]
In the imaging method according to the application example, the movable unit includes a plurality of movable elements that are movable, and when the imaging device performs imaging in the moving step, the movable unit is one of the plurality of movable elements. The element is moved and deformed, and the imaging apparatus is moved in a direction orthogonal to the optical axis direction of the imaging apparatus.
この撮像方法によれば、可動部は1つの可動要素を移動するので複数の可動要素を移動する場合に比べて、姿勢を簡便に検出することができる。 According to this imaging method, since the movable unit moves one movable element, the posture can be easily detected as compared with the case where a plurality of movable elements are moved.
以下、実施形態について図面に従って説明する。尚、各図面における各部材は、各図面上で認識可能な程度の大きさとするため、各部材毎に縮尺を異ならせて図示している。
(実施形態)
本実施形態における特徴的な撮像方法と撮像したワークをピッキングする方法とについて図1〜図6に従って説明する。ピッキングはワークを把持して移動して離すことにより、ワーク移動させる動作を示す。
Hereinafter, embodiments will be described with reference to the drawings. In addition, each member in each drawing is illustrated with a different scale for each member in order to make the size recognizable on each drawing.
(Embodiment)
A characteristic imaging method and a method of picking up an imaged work in the present embodiment will be described with reference to FIGS. Picking indicates an operation of moving a workpiece by gripping the workpiece, moving it, and releasing it.
図1は、ピッキング装置の構成を示す概略斜視図である。図1に示すように、ピッキング装置1は主にワーク供給装置2、可動部としてのロボット3及びワーク収納装置4から構成されている。ワーク供給装置2はワークとしての部品5を供給する装置である。部品5の形状や材質は特に限定されない、例えば、実施形態において部品5は金属製の直方体となっている。
FIG. 1 is a schematic perspective view showing the configuration of the picking apparatus. As shown in FIG. 1, the
ワーク供給装置2は部品整列装置6と搬送装置7とを備えている。部品整列装置6は円錐状の皿部6a及び皿部6aを支持する支持台6b等から構成されている。そして、皿部6aと支持台6bの間には図示しない振動装置が配置されている。皿部6aの内側には螺旋状の段差が形成されている。段差は所定の幅の平坦部を有し、平坦部は部品5が通過する通路になっている。平坦部は皿部6aの底から上部まで連続して形成されている。そして、振動装置が皿部6aを振動させるとき部品5が平坦部に沿って移動するようになっている。平坦部の幅は部品5が1個に限って通過可能な幅に形成されているので、部品5が通路を通過することにより部品5は1列に配列する。
The
搬送装置7の上側にはベルトコンベア7aが配置されている。ベルトコンベア7aは1方向に長く延在して配置されている。この方向をY方向とする。そして水平方向においてY方向と直交する方向をX方向とし、鉛直方向をZ方向とする。搬送装置7は内部にステップモータ及びプーリーを備え、ベルトコンベア7aを移動及び停止することができる。ベルトコンベア7aの一端は部品整列装置6の上部と接続されている。皿部6aの上部まで移動した部品5はベルトコンベア7aの上に移動する。そして、部品5はベルトコンベア7aにより順次図中右側へ移動し、所定の場所に停止するようになっている。従って、ベルトコンベア7a上には部品5が配列して配置される。
A
ワーク供給装置2の図中右側にはロボット3が配置されている。ロボット3は基台8を備え、基台8上には回転台9が配置されている。回転台9は固定台9aと回転軸9bとを備えている。回転台9は内部にサーボモータと減速機構とを備え、回転軸9bを角度精度良く回転及び停止することができる。サーボモータは回転軸9bの回転角度を検出するエンコーダを備えている。そして、エンコーダの出力を用いて固定台9aに対する回転軸9bの相対角度を検出することが可能になっている。
A
回転台9の回転軸9bと接続して第1関節10が配置され、第1関節10と接続して第1腕11が配置されている。第1腕11と接続して第2関節12が配置され、第2関節12と接続して第2腕13が配置されている。第2腕13は固定軸13aと回転軸13bとを備え、第2腕13は第2腕13の長手方向を軸にして回転軸13bを回転することができる。第2腕13の回転軸13bと接続して第3関節14が配置され、第3関節14と接続して第3腕15が配置されている。第3腕15は固定軸15aと回転軸15bとを備え、第3腕15は第3腕15の長手方向を回転軸にして回転軸15bを回転することができる。第3腕15の回転軸15bと接続して可動要素及び把持部としての手部16が配置され、手部16には一対の指部16aが配置されている。手部16にはサーボモータとサーボモータにより駆動される直動機構を備えている。そして、この直動機構により指部16aの間隔を変更可能になっている。
A first joint 10 is disposed in connection with the
回転軸13bと接続して第1支持腕17が配置されている。第1支持腕17は第2腕13の上側に突出して配置されている。第1支持腕17と接続して支持部関節18が配置され、支持部関節18と接続して第2支持腕19が配置されている。第2支持腕19には撮像装置20が配置されている。ロボット3に配置された各関節、腕、支持部が可動要素となっている。
A
第1関節10、第2関節12、第2腕13、第3関節14、第3腕15、支持部関節18は内部にサーボモータ及び減速機構等からなる回転機構を備えている。そして、第1関節10、第2関節12、第2腕13、第3関節14、第3腕15、支持部関節18は角度精度良く回転及び停止することができる。各サーボモータは回転軸の回転角度を検出するエンコーダを備えている。そして、エンコーダの出力を用いて回転台9に対する第1腕11の相対角度及び第1腕11に対する第2腕13の相対角度が検出可能になっている。同様に、第2腕13における固定軸13aに対する回転軸13bの相対角度及び第1支持腕17に対する第2支持腕19の相対角度が検出可能になっている。さらに、第2腕13に対する第3腕15の相対角度及び第3腕15における固定軸15aに対する回転軸15bの相対角度を検出することが可能になっている。上述のようにロボット3は多くの関節と回転機構を備えている。そして、これらの各腕及び回転軸の位置や角度を検出することによりロボット3の姿勢を検出することが可能になっている。
The first joint 10, the second joint 12, the
また、これらの関節及び回転機構に加えて指部16aを制御することによりワークを把持することが可能になっている。同様に、第2腕13の角度と対応して第2支持腕19の角度を制御することにより、撮像装置20における光軸の方向をZ方向にすることができる。
In addition to these joints and rotation mechanism, it is possible to grip the workpiece by controlling the
ロボット3の図中右上にはワーク収納装置4が配置されている。ワーク収納装置4の上面は載置面4aとなっている。そして、載置面4aにおいてロボット3は部品5を並べて配置する。ワーク収納装置4は内部に昇降装置を備え、載置面4aを下降させることができる。そして、ワーク収納装置4は内部に部品5を積層して収納することが可能になっている。
A
ロボット3の図中左下側には制御装置22が配置されている。制御装置22はワーク供給装置2、ロボット3、ワーク収納装置4等を含むピッキング装置1を制御する装置である。
A
図2は、ピッキング装置の電気制御ブロック図である。図2において、ピッキング装置1の制御部としての制御装置22はプロセッサとして各種の演算処理を行うCPU(演算処理装置)25と各種情報を記憶する記憶部としてのメモリ26とを有する。
FIG. 2 is an electric control block diagram of the picking apparatus. In FIG. 2, a
ロボット駆動装置27、撮像装置20、ワーク供給装置2、ワーク収納装置4は、入出力インターフェース28及びデータバス29を介してCPU25に接続されている。さらに、入力装置30、表示装置31も入出力インターフェース28及びデータバス29を介してCPU25に接続されている。
The
ロボット駆動装置27は、ロボット3と接続されロボット3の動作を制御する装置である。ロボット駆動装置27は、ロボット3の姿勢に関する情報をCPU25に出力することができる。そして、CPU25が指示する場所にロボット駆動装置27は撮像装置20を移動することにより、撮像装置20は所望の場所を撮像することができる。さらに、CPU25が指示する場所にロボット駆動装置27は手部16を移動した後、指部16aを動作することによりロボット3はワークを把持することが可能になっている。
The
撮像装置20は部品5を撮像する装置である。CPU25の指示する信号に従って撮像した後、撮像した画像のデータをメモリ26に出力する。
The
ワーク供給装置2はCPU25の指示により部品整列装置6及び搬送装置7を駆動する。そして、ロボット3の手部16が到達可能な範囲に部品5を供給する。ワーク収納装置4はCPU25の指示により昇降装置を駆動する。そして、ロボット3が部品5を置く高さを制御する。
The
入力装置30は部品5の位置認識をする条件やピッキング動作の動作条件等の諸情報を入力する装置である。例えば、部品5の形状を示す座標を図示しない外部装置から受信し、入力する装置である。表示装置31は部品5やロボット3に関するデータや作業状況を表示する装置である。表示装置31に表示される情報を基に入力装置30を用いて操作者が入力操作を行う。
The
メモリ26は、RAM、ROM等といった半導体メモリや、ハードディスク、DVD−ROMといった外部記憶装置を含む概念である。機能的には、ピッキング装置1における動作の制御手順が記述されたプログラムソフト32を記憶する記憶領域がメモリ26に設定される。さらに、部品5の形状や手部16が把持する場所等の情報であるワーク関連データ33を記憶するための記憶領域もメモリ26に設定される。さらに、ロボット3を構成する要素の情報や、ワーク供給装置2及びワーク収納装置4とロボット3との相対位置等の情報であるロボット関連データ34を記憶するための記憶領域もメモリ26に設定される。さらに、ロボット3が撮像装置20を移動するときにおける各腕部等の姿勢を示す情報であるロボット姿勢データ35を記憶するための記憶領域もメモリ26に設定される。さらに、撮像装置20が撮像した画像のデータや補正後の画像のデータである画像データ36を記憶するための記憶領域もメモリ26に設定される。他にも、CPU25のためのワークエリアやテンポラリファイル等として機能する記憶領域やその他各種の記憶領域がメモリ26に設定される。
The
CPU25はメモリ26内に記憶されたプログラムソフト32に従って、部品5の位置及び姿勢を検出した後、部品5を移動させるための制御を行うものである。具体的な機能実現部として、ロボット3を駆動して部品5や撮像装置20を移動させるための制御を行うロボット制御部37を有する。ロボット3の各サーボモータが備えるエンコーダ、ロボット駆動装置27、ロボット制御部37等により可動部姿勢検出部が構成されている。ロボット制御部37は撮像装置20を駆動する制御も行う。他にも、ロボット3の各腕部の場所や姿勢の情報を入力して撮像装置20の場所を演算する姿勢演算部38を有する。さらに、撮像装置20の軌跡を演算する軌跡演算部39を有する。さらに、撮像装置20の軌跡の情報を用いて撮像した画像のブレを補正する画像補正演算部40を有する。さらに、補正した画像を用いて部品5の位置を演算するワーク位置演算部41を有する。他にも、ロボット3の動作と連携してワーク供給装置2及びワーク収納装置4の動作を制御する除給材制御部42等を有する。
The
(撮像方法及びピッキング方法)
次に、上述したピッキング装置1を用いて部品5を移動する作業における撮像方法及びピッキング方法について図3〜図6にて説明する。図3は、部品のピッキング工程を示すフローチャートである。図4〜図6は、ピッキング作業の作業方法を説明するための模式図である。
(Imaging method and picking method)
Next, an imaging method and a picking method in an operation of moving the
図3に示すフローチャートにおいて、ステップS1は、部品供給工程に相当する。除給材制御部がワーク供給装置を駆動してベルトコンベア上に部品を配置させる工程である。ステップS2とステップS3〜ステップS6とが並行して行われる。ステップS2は、移動工程としての撮像装置移動工程に相当し、ロボット制御部がロボットを駆動して撮像装置を部品に向かって移動させる工程である。次にステップS7に移行する。ステップS3は、撮像工程に相当し、撮像装置が部品を撮像する工程である。次に、ステップS4に移行する。ステップS4は、軌跡算出工程に相当し、撮像装置が部品の撮像に要した時間内に撮像装置が移動した軌跡を演算する工程である。次にステップS5に移行する。ステップS5は、補正工程に相当し、撮像装置が撮像した画像のブレを補正する工程である。次にステップS6に移行する。ステップS6は、位置認識工程に相当し、ワークの位置を算出する工程である。次にステップS7に移行する。ステップS7は、ワーク移動工程に相当し、ロボットが部品をワーク収納装置まで移動する工程である。次にステップS8に移行する。ステップS8は、終了判断工程に相当し、ピッキング作業を終了するか否かを判断する工程である。ピッキング作業を継続するとき、ステップS1に移行する。ピッキング作業を終了するとき、部品のピッキング工程を終了する。 In the flowchart shown in FIG. 3, step S1 corresponds to a component supply process. This is a process in which the material removal control unit drives the workpiece supply device to place components on the belt conveyor. Step S2 and steps S3 to S6 are performed in parallel. Step S2 corresponds to an imaging apparatus moving process as a moving process, and is a process in which the robot controller drives the robot to move the imaging apparatus toward the part. Next, the process proceeds to step S7. Step S <b> 3 corresponds to an imaging step, and is a step in which the imaging device images a component. Next, the process proceeds to step S4. Step S4 corresponds to a trajectory calculation step, and is a step of calculating a trajectory in which the imaging device has moved within the time required for the imaging device to image the part. Next, the process proceeds to step S5. Step S5 corresponds to a correction step, and is a step of correcting blurring of an image captured by the imaging device. Next, the process proceeds to step S6. Step S6 corresponds to a position recognition step, and is a step of calculating the position of the workpiece. Next, the process proceeds to step S7. Step S7 corresponds to a workpiece moving process, and is a process in which the robot moves the component to the workpiece storage device. Next, the process proceeds to step S8. Step S8 corresponds to an end determination step and is a step of determining whether or not to end the picking work. When the picking operation is continued, the process proceeds to step S1. When the picking work is finished, the part picking process is finished.
次に、図4〜図6を用いて、図3に示したステップと対応させて、ピッキング工程における撮像方法及びピッキング方法を詳細に説明する。図4はステップS1の部品供給工程及びステップS2の撮像装置移動工程に対応する図である。図4(a)に示すように、ステップS1において、ベルトコンベア7a上に部品5が載置される。そして、ベルトコンベア7aが部品5を移動させる。その結果、部品5は予め設定された撮像場所としての把持予定場所45に位置する。
Next, the imaging method and the picking method in the picking process will be described in detail with reference to FIGS. 4 to 6 in association with the steps shown in FIG. FIG. 4 is a diagram corresponding to the component supplying process in step S1 and the imaging device moving process in step S2. As shown to Fig.4 (a), in step S1, the
ステップS2において、ロボット制御部37はロボット3を駆動する。そして、ロボット制御部37は移動前場所46から把持予定場所45と対応する場所に向かって撮像装置20を移動させる。移動前場所46は特定の場所では無く、前工程の作業が終了したときに撮像装置20が位置した場所である。ロボット3はベルトコンベア7aにおいて部品5が載置されている面と平行に撮像装置20を移動させる。従って、撮像装置20の光軸と直交する方向に撮像装置20は移動させられる。そして、撮像装置20が部品5と対向する場所を通過するとき、撮像装置20の焦点距離を殆ど調整することなく撮像することができる。
In step S <b> 2, the
図4(b)は各関節及び腕に配置されたエンコーダの出力の推移を示すタイムチャートである。図4(b)において、横軸は時間の経過を示し、時間は左から右へ移行する。縦軸には、撮像装置20が移動するときの回転台9、第1関節10、第2関節12、第2腕13、支持部関節18におけるエンコーダ出力値が配置されている。エンコーダ出力値は図中上側が時計周りの角度を示している。第1エンコーダ出力線47は回転台9におけるエンコーダの出力の推移を示している。第2エンコーダ出力線48は第1関節10の回転によるエンコーダの出力の推移を示している。第3エンコーダ出力線49は第2関節12の回転によるエンコーダの出力の推移を示している。第4エンコーダ出力線50は第2腕13の回転軸13bの回転によるエンコーダの出力の推移を示している。第5エンコーダ出力線51は支持部関節18の回転によるエンコーダの出力の推移を示している。第1エンコーダ出力線47〜第5エンコーダ出力線51が姿勢情報となっている。
FIG. 4B is a time chart showing the transition of the output of the encoders arranged at each joint and arm. In FIG. 4B, the horizontal axis indicates the passage of time, and the time shifts from left to right. On the vertical axis, encoder output values at the turntable 9, the first joint 10, the second joint 12, the
時間軸上の撮像開始時52aは撮像装置20が撮像を開始する時を示している。撮像終了時52bは撮像装置20が撮像を終了する時を示している。撮像時間52cは撮像装置20が撮像している間の時間を示す。記憶開始時53aは、ロボット制御部37がエンコーダ出力値をメモリ26に記憶することを開始する時を示す。記憶終了時53bは、ロボット制御部37がエンコーダ出力値をメモリ26に記憶することを終了する時を示す。記憶時間53cは、ロボット制御部37がエンコーダ出力値をメモリ26に記憶している間の時間を示す。把持時54は、ロボット3が部品5を把持する時を示している。
The imaging start
記憶開始時53aは撮像開始時52aより早く設定され、記憶終了時53bは撮像終了時52bより遅く設定されている。従って、撮像時間52cに加えて撮像前後の時間における各エンコーダの出力値がメモリ26にロボット姿勢データ35として記憶される。
The
第1エンコーダ出力線47が示すように、撮像装置20が移動前場所46から把持予定場所45と対向する場所に移動するとき、第1エンコーダ出力線47は下降する。つまり、回転軸9bは反時計周りに移動する。そして、撮像時間52cの間も第1エンコーダ出力線47が下降する。つまり、撮像装置20が移動している間に撮像が行われる。
As indicated by the first
第2エンコーダ出力線48、第3エンコーダ出力線49、第5エンコーダ出力線51は撮像開始時52aの図中左側にて変化している。そして、撮像時間52cの間では第2エンコーダ出力線48、第3エンコーダ出力線49、第5エンコーダ出力線51は変化していない。つまり、第1関節10、第2関節12、支持部関節18は撮像開始時52aに至る前に移動が終了している。第4エンコーダ出力線50は変化していないので、第2腕13は回転していない。従って、撮像時間52cの間は回転台9のみが回転している。
The second
撮像終了時52bから把持時54の間で第3エンコーダ出力線49及び第5エンコーダ出力線51が変化する。このとき、ロボット制御部37は、第2関節12、第3関節14、手部16、支持部関節18を駆動する。
The third
図5(a)はステップS3の撮像工程に対応する図である。図5(a)に示すように、ステップS3において、撮影画像55に部品5の画像56が撮像される。ロボット制御部37が撮像装置20を移動させながら撮像するので、画像56にはブレが生じる。その結果、撮影画像55における画像56の辺56aが太く観察される。
FIG. 5A corresponds to the imaging process in step S3. As shown in FIG. 5A, the
図5(b)はステップS4の軌跡算出工程に対応する図である。ステップS4において、姿勢演算部38はメモリ26からエンコーダの出力データを再生する。そして、第1エンコーダ出力線47〜第5エンコーダ出力線51のデータを用いて撮像装置20の場所を演算する。このときロボット3に設定された座標軸上における撮像装置20の座標値を演算する。
FIG. 5B is a diagram corresponding to the trajectory calculation step of step S4. In step S <b> 4, the
具体的には、まず回転台9の回転軸9bの回転角度データを用いて第1関節10を中心に第1腕11が移動可能な方向を算出する。次に、第1関節10の回転角度データを用いて第2関節12の位置を算出する。続いて、第2関節12の回転角度データを用いて支持部関節18の位置を算出する。次に、支持部関節18の回転角度データを用いて撮像装置20の位置を算出する。この手順を用いて姿勢演算部38が撮像開始時52aにおける撮像装置20の場所を算出する。
Specifically, first, the direction in which the
次に、撮像時間52cの間における撮像装置20の位置を順次算出する。そして、軌跡演算部39が撮像装置20の推移を演算する。その結果、図5(b)に示すように、点像分布関数57を示す曲線が算出される。本実施形態においては、撮像時間52cの間に回転台9のみ駆動されている。従って、点像分布関数57は回転軸9bを中心とした円弧となる。軌跡演算部39は回転軸9bの回転中心の座標と撮像開始時52aにおける撮像装置20の座標とを用いて点像分布関数57を算出する。点像分布関数57は撮像装置20の光軸が移動するときの軌跡となっている。
Next, the position of the
図5(c)はステップS5の補正工程に対応する図である。ステップS5において、撮影画像55と点像分布関数57とを用いて撮影画像55を補正する。補正方法は特に限定されず、公知の方法を用いることができる。例えば、特開2006−279807号公報に開示されている一般逆フィルタ関数や、特開平11−27574号公報に開示されているウィーナフィルタ、特開2007−183842号公報に開示されているパラメトリックウイーナフィルタ、制限付最小二乗フィルタ、射影フィルタ等の復元方法を用いることができる。
FIG. 5C is a diagram corresponding to the correction process in step S5. In step S5, the captured
復元方法の一例における概要を説明する。まず、点像分布関数57をフーリエ変換することにより、XY平面上の空間周波数分布関数を算出する。算出した分布関数は複素関数であり、この関数を点像空間周波数分布関数とする。次に、1つの点からなる画像をフーリエ変換した空間周波数分布関数を算出し、算出した分布を単点空間周波数分布関数とする。そして、単点空間周波数分布関数を点像空間周波数分布関数にて複素除算し、算出した関数を復元フィルタ関数とする。続いて、撮影画像55をフーリエ変換することにより、XY平面上の空間周波数分布関数を算出する。算出した分布を撮像空間周波数分布関数とする。次に、撮像空間周波数分布関数と復元フィルタ関数とを複素積算し、積算した分布を補正像空間周波数分布関数とする。続いて、補正像空間周波数分布関数を逆フーリエ変換することにより補正画像を算出する。
An outline of an example of the restoration method will be described. First, a spatial frequency distribution function on the XY plane is calculated by Fourier transforming the
その結果、図5(c)に示すような復元画像58が算出される。復元画像58における部品5の補正画像59の辺59aは細くなり、ブレが小さくなる。そして、補正画像59の場所を算出し易くなる為、部品5の位置を精度良く認識することができる。
As a result, a restored
ステップS6において、ワーク位置演算部41は復元画像58を用いて部品5の場所を算出する。まず、ワーク位置演算部41は復元画像58における補正画像59の場所を演算する。次に、ワーク位置演算部41は撮像時間52cにおける撮像装置20の場所を演算する。続いて、ワーク位置演算部41は補正画像59の場所のデータ及び撮像装置20の場所のデータを用いて部品5の場所を演算する。
In step S <b> 6, the work
図6はステップS7のワーク移動工程に対応する図である。図6(a)に示すように、ワーク位置演算部41が部品5の場所を算出した後、ロボット制御部37がロボット3を駆動して部品5を把持する。続いて、ロボット3は部品5を把持したままワーク収納装置4に移動することにより、部品5を移動する。その結果、図6(b)に示すように、ワーク収納装置4に部品5が載置される。続いて、手部16は指部16aを広げて部品5を離して、次に作業する場所へ移動して、部品のピッキング工程を終了する。
FIG. 6 is a diagram corresponding to the workpiece moving process in step S7. As shown in FIG. 6A, after the workpiece
上述したように、本実施形態によれば、以下の効果を有する。
(1)本実施形態によれば、ステップS3の撮像工程において、ロボット3が撮像装置20を移動しながら、撮像装置20が部品5を撮像している。このとき、撮像する画像56にはブレが形成され易くなっている。ステップS2の撮像装置移動工程ではエンコーダ出力値を用いて姿勢演算部38がロボット3の姿勢を検出している。そして、ステップS4の軌跡算出工程ではロボット3の姿勢が変化する情報を用いて軌跡演算部39が部品5に対する撮像装置20の移動軌跡を算出している。ステップS5の補正工程では移動軌跡から算出した点像分布関数57を用いることにより撮像した画像56の補正を行っている。従って、センサ等により撮像装置20の位置を直接検出しなくてもサーボモータのエンコーダ出力値を用いて画像56を補正することができる。
As described above, this embodiment has the following effects.
(1) According to the present embodiment, the
(2)本実施形態によれば、ステップS2の撮像装置移動工程において、回転台9、第1関節10、第2関節12、第2腕13、支持部関節18の各エンコーダ出力値をメモリ26に記憶している。そして、ステップS4の軌跡算出工程では各エンコーダ出力値を再生している。従って、撮像装置移動工程と軌跡算出工程とは並行せずに行うことができる。従って、軌跡算出工程におけるCPU25の演算速度に影響されることなく、撮像装置移動工程ではロボット制御部37が撮像装置20を移動することができる。
(2) According to the present embodiment, the
(3)本実施形態によれば、撮像時間52cの間においてロボット3は回転台9のみ移動するので複数の腕や関節を移動する場合に比べて、撮像装置20が移動する軌跡を簡便に算出することができる。
(3) According to the present embodiment, since the
(4)本実施形態によれば、部品5に対する撮像装置20の移動軌跡を用いて点像分布関数57を演算する為、精度良く点像分布関数57を算出することができる。その結果、精度良く画像56を補正することができる。
(4) According to the present embodiment, since the
(5)本実施形態によれば、ワーク位置演算部41は、精度良く補正された補正画像59を用いて部品5の場所を検出している。従って、ワーク位置演算部41は部品5の場所を精度良く認識することができる。
(5) According to the present embodiment, the workpiece
(6)本実施形態によれば、ワーク位置演算部41が部品5の場所を精度良く認識するので、ロボット3は部品5を品質良く把持して移動することができる。
(6) According to the present embodiment, since the workpiece
(7)本実施形態によれば、ロボット3が撮像装置20を移動している間に撮像装置20が撮像を行っている。従って、ロボット3が撮像装置20を停止してから撮像装置20が撮像する方法に比べて、短い時間で撮像装置20の移動と撮像とを行うことができる。その結果、生産性良く部品5の場所を検出することができる。
(7) According to the present embodiment, the
(8)本実施形態によれば、記憶開始時53aは撮像開始時52aより早く設定され、記憶時間53cは撮像時間52cより長く設定されている。従って、撮像開始時52a及び撮像終了時52bが変動するときにも撮像時間52cのエンコーダ出力値を確実に記憶することができる。
(8) According to this embodiment, the
尚、本実施形態は上述した実施形態に限定されるものではなく、種々の変更や改良を加えることも可能である。変形例を以下に述べる。
(変形例1)
前記実施形態では部品5がベルトコンベア7a上に静止していた。そしてロボット3が撮像装置20を移動して、撮像装置20が部品5を撮像した。部品5と撮像装置20とを相対移動する方法はこれに限らない。例えば、ロボット3と別の第2ロボットを用意する。そして、撮像装置20が静止した状態で第2ロボットが部品5を移動しても良い。撮像装置20の撮像範囲に第2ロボットが部品5を移動する。このとき、第2ロボットの姿勢を検出して、部品5の移動軌跡を算出する。そして、部品5の移動軌跡を用いて点像分布関数を演算し、点像分布関数を用いて画像のブレを補正することができる。
In addition, this embodiment is not limited to embodiment mentioned above, A various change and improvement can also be added. A modification will be described below.
(Modification 1)
In the embodiment, the
(変形例2)
前記実施形態ではステップS3の撮像工程においてロボット制御部37がエンコーダ出力値をメモリ26に記憶して、ステップS4の軌跡算出工程において姿勢演算部38がメモリ26から再生した。CPU25の演算速度が速い場合には、メモリ26に記憶して再生せずに、直接撮像装置20の移動軌跡を演算しても良い。記憶と再生とのステップを省略できるので、生産性良く移動軌跡を算出することができる。
(Modification 2)
In the embodiment, the
(変形例3)
前記実施形態ではロボット3に垂直多関節ロボットを採用したが、他の種類のロボットを採用しても良い。例えば、ロボット3に水平多関節ロボット、直交ロボット、パラレルリンクロボット等各種の形態のロボットを採用することができる。
(Modification 3)
In the above embodiment, a vertical articulated robot is used as the
(変形例4)
前記実施形態ではステップS4の軌跡算出工程、ステップS5の補正工程、ステップS6の位置認識工程はステップS2の撮像装置移動工程と並行して行われた。ステップS4、ステップS5、ステップS6はステップS2の後に行われても良い。ステップS2で手部16が移動する距離や移動にかかる時間に合わせて設定しても良い。
(Modification 4)
In the above-described embodiment, the trajectory calculation process in step S4, the correction process in step S5, and the position recognition process in step S6 are performed in parallel with the imaging apparatus moving process in step S2. Step S4, step S5, and step S6 may be performed after step S2. You may set according to the distance which the
(変形例5)
前記実施形態では撮像時間52cの間に回転台9のみ作動させたが、他の関節や腕等を作動させても良い。撮像装置20の移動軌跡が算出可能であれば、点像分布関数を演算することができる。
(Modification 5)
In the above-described embodiment, only the turntable 9 is operated during the
(変形例6)
前記実施形態ではロボット3の腕や関節に配置されたサーボモータのエンコーダを用いてロボット3の姿勢を検出したが、ロボット3の姿勢を検出する方法はこれに限定されない。例えば、サーボモータの代りにステップモータを配置しても良い。そして、ステップモータを制御する制御信号を用いてロボット3の姿勢を演算しても良い。また、ステップモータとエンコーダとを用いても良い。ロボット3を制御するために腕や関節に位置検出センサまたは角度検出センサを配置しても良い。
(Modification 6)
In the above-described embodiment, the posture of the
(変形例7)
前記実施形態では撮像時間52cの間に回転台9を作動させたが、作動するロボットの種類に合わせて作動パターンを変えても良い。例えば、直交ロボットでは1軸のみ駆動しても良い。他にも、1方向に伸縮可能な腕を備えるロボットの場合には、その腕を伸縮させて撮像装置を移動させても良い。
(Modification 7)
In the above embodiment, the turntable 9 is operated during the
3…可動部としてのロボット、5…ワークとしての部品、9…可動要素としての回転台、10…可動要素としての第1関節、11…可動要素としての第1腕、12…可動要素としての第2関節、13…可動要素としての第2腕、14…可動要素としての第3関節、15…可動要素としての第3腕、16…可動要素及び把持部としての手部、17…可動要素としての第1支持腕、18…可動要素としての支持部関節、19…可動要素としての第2支持腕、20…撮像装置、26…記憶部としてのメモリ、38…可動部姿勢検出部としての姿勢演算部、39…軌跡演算部、40…補正部としての画像補正演算部、41…位置検出部としてのワーク位置演算部、56…画像、57…点像分布関数、59…補正画像。
DESCRIPTION OF
Claims (7)
変形する可動部を用いて前記撮像装置と前記ワークとのうち少なくとも一方を移動する移動工程と、
前記移動工程と並行して行われ前記ワークを撮像する撮像工程と、
前記撮像装置と前記ワークとが相対移動する移動軌跡を演算する軌跡算出工程と、
前記移動軌跡の情報を用いて撮像した画像を補正する補正工程と、を有し、
前記移動工程では前記可動部の姿勢を検出し、前記軌跡算出工程では可動部における前記姿勢の情報である姿勢情報を用いて前記ワークに対する前記撮像装置の前記移動軌跡を算出することを特徴とする撮像方法。 An imaging method for imaging a workpiece using an imaging device,
A moving step of moving at least one of the imaging device and the workpiece using a deformable movable portion;
An imaging step of imaging the workpiece performed in parallel with the moving step;
A trajectory calculating step for calculating a trajectory in which the imaging device and the workpiece move relative to each other;
A correction step of correcting an image captured using the information of the movement trajectory,
In the moving step, the posture of the movable part is detected, and in the locus calculating step, the movement locus of the imaging device with respect to the workpiece is calculated using posture information that is information on the posture of the movable part. Imaging method.
前記移動工程では前記姿勢情報を記憶部に記憶し、
前記軌跡算出工程では前記記憶部に記憶した前記姿勢情報を再生して前記撮像装置の移動軌跡を演算することを特徴とする撮像方法。 The imaging method according to claim 1,
In the moving step, the posture information is stored in a storage unit,
In the trajectory calculation step, the posture information stored in the storage unit is reproduced to calculate a movement trajectory of the imaging device.
前記移動工程において前記撮像装置が撮像するとき、前記撮像装置の光軸方向と直交する方向に前記可動部は前記撮像装置を移動させることを特徴とする撮像方法。 The imaging method according to claim 2,
An imaging method, wherein when the imaging device captures an image in the moving step, the movable unit moves the imaging device in a direction orthogonal to an optical axis direction of the imaging device.
前記補正工程では前記ワークに対する前記撮像装置の前記移動軌跡の情報を用いて点像分布関数を演算し、前記点像分布関数を用いて復元フィルタを演算し、前記復元フィルタを用いて前記画像を補正することを特徴とする撮像方法。 The imaging method according to claim 3,
In the correction step, a point spread function is calculated using information on the movement trajectory of the imaging device with respect to the workpiece, a restoration filter is calculated using the point spread function, and the image is obtained using the restoration filter. An imaging method characterized by correcting.
前記補正工程にて補正した補正画像を用いて前記ワークの場所を検出する位置認識工程と、
前記ワークを把持して移動するワーク移動工程と、を有することを特徴とするピッキング方法。 A picking method using the imaging method according to claim 1,
A position recognition step of detecting the location of the workpiece using the corrected image corrected in the correction step;
A picking method comprising: a work moving step of gripping and moving the work.
前記ワークを把持する把持部と、
前記ワークを撮像する撮像装置と、
前記ワーク及び前記撮像装置のうち少なくとも一方を移動する可動部と、
前記可動部の姿勢を検出して前記可動部の姿勢を示す姿勢情報を出力する可動部姿勢検出部と、
前記姿勢情報を用いて前記撮像装置と前記ワークとが相対移動する移動軌跡を演算する軌跡演算部と、
前記移動軌跡の情報を用いて前記撮像装置が画像を補正した補正画像を形成する補正部と、
前記補正画像を用いて前記ワークの場所を検出する位置検出部と、を有し、
前記軌跡演算部は前記姿勢情報を用いて前記移動軌跡を算出することを特徴とするピッキング装置。 A picking device that grips and moves a workpiece,
A gripping part for gripping the workpiece;
An imaging device for imaging the workpiece;
A movable part that moves at least one of the workpiece and the imaging device;
A movable part attitude detection unit that detects the attitude of the movable part and outputs attitude information indicating the attitude of the movable part;
A trajectory calculation unit that calculates a movement trajectory in which the imaging device and the workpiece move relative to each other using the posture information;
A correction unit that forms a corrected image obtained by correcting the image by the imaging device using the information of the movement locus;
A position detection unit that detects the location of the workpiece using the corrected image,
The trajectory calculation unit calculates the movement trajectory using the posture information.
前記可動部姿勢検出部が検出する前記姿勢情報を記憶する記憶部を有し、
前記軌跡演算部は前記姿勢情報を再生して入力することを特徴とするピッキング装置。 The picking device according to claim 6,
A storage unit that stores the posture information detected by the movable unit posture detection unit;
The trajectory calculation unit reproduces and inputs the posture information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009003246A JP2010161686A (en) | 2009-01-09 | 2009-01-09 | Imaging method, picking method and picking apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009003246A JP2010161686A (en) | 2009-01-09 | 2009-01-09 | Imaging method, picking method and picking apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010161686A true JP2010161686A (en) | 2010-07-22 |
Family
ID=42578498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009003246A Withdrawn JP2010161686A (en) | 2009-01-09 | 2009-01-09 | Imaging method, picking method and picking apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010161686A (en) |
-
2009
- 2009-01-09 JP JP2009003246A patent/JP2010161686A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6228120B2 (en) | Working machine equipped with an articulated robot and electrical component mounting machine | |
JP5815761B2 (en) | Visual sensor data creation system and detection simulation system | |
CN111182178B (en) | Imaging device and machine tool | |
JP5468366B2 (en) | Robot control system and robot control method | |
JP6741537B2 (en) | Robot, robot control device, and robot position teaching method | |
JP5918622B2 (en) | Component or board working device and component mounting device | |
US11565422B2 (en) | Controller of robot apparatus for adjusting position of member supported by robot | |
JP6741538B2 (en) | Robot, robot control device, and robot position teaching method | |
JP2004261878A (en) | Control system using working robot, and work machining method using that control system | |
JP6661027B2 (en) | Work robot | |
JP6869159B2 (en) | Robot system | |
JP6605611B2 (en) | Robot system | |
CN112297004A (en) | Control device for robot device for controlling position of robot | |
JP2010125582A (en) | Robot arm device, and method and program for controlling robot arm device | |
CN111730626A (en) | Motion adjustment device and motion adjustment method for adjusting motion of robot device | |
WO2016117017A1 (en) | Inspection support device and inspection support method | |
JP5509859B2 (en) | Robot control apparatus and method | |
JP2010131685A (en) | Robot system and imaging method | |
JP2001244696A (en) | Method for correcting component mounting position and surface mounting equipment | |
JP5521506B2 (en) | robot | |
JP2010162630A (en) | Imaging method, and method and apparatus for picking | |
JP2011083883A (en) | Robot device | |
JP2010161686A (en) | Imaging method, picking method and picking apparatus | |
JP2010264560A (en) | Method for preventing interference of robot | |
JPWO2018207313A1 (en) | Information processing apparatus, three-dimensional mounting related apparatus, mounting system, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120403 |