JP7443014B2 - robot arm testing equipment - Google Patents
robot arm testing equipment Download PDFInfo
- Publication number
- JP7443014B2 JP7443014B2 JP2019185557A JP2019185557A JP7443014B2 JP 7443014 B2 JP7443014 B2 JP 7443014B2 JP 2019185557 A JP2019185557 A JP 2019185557A JP 2019185557 A JP2019185557 A JP 2019185557A JP 7443014 B2 JP7443014 B2 JP 7443014B2
- Authority
- JP
- Japan
- Prior art keywords
- target marker
- arm
- dimensional
- coordinate system
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims description 35
- 239000003550 marker Substances 0.000 claims description 69
- 230000010365 information processing Effects 0.000 claims description 22
- 238000003384 imaging method Methods 0.000 claims description 20
- 238000005259 measurement Methods 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 6
- 230000004397 blinking Effects 0.000 claims description 3
- 238000009434 installation Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 2
- 238000005498 polishing Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、ロボットアーム試験装置に関する。 The present invention relates to a robot arm testing device.
昨今、例えば特開2015-125641号公報や特開2004-355131号公報に記載のように、ヘッドマウントディスプレイ(以下、HMDとも称する)を用いた複合現実感(Mixed Reality)(以下、MRとも称する)技術が発展している。特開2015-125641号公報から引用すると、MR技術は、HMDで撮像した現実の世界(現実空間)の画像に、コンピュータで生成された仮想の世界(仮想空間)の画像を重畳させて、HMDの画面に表示する技術である。つまり、現実空間画像と仮想空間画像(3次元モデル)とが重畳されてHMDに表示される。MR技術を利用することで、実際に模型を製作することなく、完成品について、大きさ、又は部品の取り外し(取り付け)の作業性などのチェックが可能となる。MR技術を用いた複合現実感装置としては、例えば、HMDと、HMDを介してユーザに重畳画像である複合現実感を提示する情報処理部と、を備えている。 Recently, mixed reality (hereinafter also referred to as MR) using a head-mounted display (hereinafter also referred to as HMD) is being developed, as described in, for example, Japanese Patent Application Publication No. 2015-125641 and 2004-355131. ) Technology is developing. To quote from Japanese Patent Application Laid-Open No. 2015-125641, MR technology superimposes an image of a virtual world (virtual space) generated by a computer on an image of the real world (real space) captured by an HMD. This is a technology that displays images on the screen. That is, the real space image and the virtual space image (three-dimensional model) are displayed on the HMD in a superimposed manner. By using MR technology, it is possible to check the size of a finished product, the workability of removing (installing) parts, etc. without actually manufacturing a model. A mixed reality device using MR technology includes, for example, an HMD and an information processing unit that presents mixed reality, which is a superimposed image, to a user via the HMD.
また、HMDで複合現実感を提示するためには、対象スペース(現実空間)におけるHMDの位置及び姿勢を求める必要がある。例えば特開2015-215191号公報に記載されているように、複合現実感装置を用いるには、現実空間中に定義した基準座標系と、カメラ座標系との間の、相対的な位置及び姿勢を計測することが不可欠である。ここで、例えば特開2015-215191号公報及び特開2008-70267号公報には、HMDに設けられたカメラで撮像したターゲットマーカの情報からカメラの位置姿勢を推定することが記載されている。ターゲットマーカには、座標情報が設定されている。作業スペース(現実空間)に設置されたターゲットマーカを、カメラが撮像することで、公知の演算方法により、カメラの位置及び姿勢を推定することができる。 Furthermore, in order to present mixed reality with an HMD, it is necessary to determine the position and orientation of the HMD in the target space (real space). For example, as described in Japanese Unexamined Patent Publication No. 2015-215191, in order to use a mixed reality device, it is necessary to determine the relative position and orientation between a reference coordinate system defined in real space and a camera coordinate system. It is essential to measure the Here, for example, Japanese Patent Application Laid-Open No. 2015-215191 and Japanese Patent Application Publication No. 2008-70267 describe estimating the position and orientation of a camera from information of a target marker imaged by a camera provided in an HMD. Coordinate information is set in the target marker. When a camera captures an image of a target marker installed in a work space (real space), the position and orientation of the camera can be estimated using a known calculation method.
ところで、工場にロボットアームを導入するに際し、ロボットアームの動作が他の装置と干渉するか否かなど、予め細かなシミュレーションが必要となる。例えば、実際の工場現場に導入対象のロボットアームを配置して動作させることで、干渉具合等は把握できる。しかしながら、実際に工場にロボットアームを配置して動作試験を行うと、ロボットアームの先端部に取り付けられたハンド部品(例えば把持ハンド、溶接トーチ、研磨ハンド、又はバキュームハンド等)が他の装置と当接して破損するおそれがある。 By the way, when introducing a robot arm into a factory, detailed simulations are required in advance to determine whether or not the robot arm's operation will interfere with other equipment. For example, by placing and operating a robot arm to be introduced at an actual factory site, it is possible to understand the extent of interference. However, when a robot arm is actually placed in a factory and an operation test is performed, the hand parts attached to the tip of the robot arm (e.g., gripping hand, welding torch, polishing hand, vacuum hand, etc.) are connected to other equipment. There is a risk of damage due to contact.
また、工場でロボットアームを組み付けて、ロボットアームやハンド部品の配置や種類が適切でないと判断された場合、設置場所又はハンド部品を変更して再度組み立てなければならない。このように、従来の方法では、ロボットアーム導入時の試験において、多大な労力がかかっていた。 Further, if the robot arm is assembled in a factory and it is determined that the arrangement or type of the robot arm or hand parts is not appropriate, the installation location or hand parts must be changed and reassembled. As described above, in the conventional method, a great deal of effort was required in testing when the robot arm was introduced.
本発明の目的は、ロボットアームのハンド部品の損傷が防止されるとともに、容易にハンド部品の動作・干渉試験を実行することができるロボットアームを提供することである。 An object of the present invention is to provide a robot arm in which damage to the hand parts of the robot arm can be prevented and operation and interference tests of the hand parts can be easily performed.
本発明のロボットアーム試験装置は、ディスプレイと、外部を撮像するカメラと、前記カメラで撮像された第1座標系のターゲットマーカである第1ターゲットマーカの撮像データ、及び前記第1ターゲットマーカに対して設定された座標情報に基づいて、前記カメラの位置及び姿勢を計測する位置姿勢計測部と、前記位置姿勢計測部で計測された前記カメラの位置及び姿勢に基づき、前記ディスプレイを介してユーザに現実空間と3次元モデルとの重畳画像である複合現実感を提示する情報処理部と、アームの先端部のハンド部品が配置される予定の場所に、前記ハンド部品ではなく、前記第1座標系から独立した第2座標系のターゲットマーカである第2ターゲットマーカが取り付けられたロボットアームと、前記第2ターゲットマーカに対応して設定された、前記ハンド部品を表す3次元ハンドモデルを記憶する記憶部と、を備え、前記3次元モデルは、実機配置データであり、前記第1座標系は、ワールド座標系であり、前記第2座標系は、その原点が、前記第1座標系上で前記第2ターゲットマーカの移動に伴い移動する副座標系であり、前記情報処理部は、前記ディスプレイに、前記第1ターゲットマーカの撮像データに基づいて前記3次元モデルを表示し、前記第2ターゲットマーカの撮像データに基づいて前記第1座標系上で前記3次元ハンドモデルを表示し、前記アームの撮像データを前記現実空間として前記3次元モデル及び前記3次元ハンドモデルに重畳して表示する。 The robot arm testing device of the present invention includes a display, a camera that images the outside, imaging data of a first target marker that is a target marker in a first coordinate system that is imaged by the camera, and information on the first target marker. a position and orientation measurement unit that measures the position and orientation of the camera based on coordinate information set for the camera; and a position and orientation measurement unit that measures the position and orientation of the camera based on coordinate information set for the camera; an information processing unit that presents mixed reality, which is a superimposed image of real space and a three-dimensional model; A robot arm to which a second target marker, which is a target marker of a second coordinate system independent of the system, is attached, and a three-dimensional hand model representing the hand component set corresponding to the second target marker are stored. a storage unit , the three-dimensional model is actual machine layout data, the first coordinate system is a world coordinate system, and the second coordinate system has an origin on the first coordinate system. It is a sub-coordinate system that moves as the second target marker moves, and the information processing unit displays the three-dimensional model on the display based on the imaging data of the first target marker, and displays the three-dimensional model on the display based on the imaging data of the first target marker. The three-dimensional hand model is displayed on the first coordinate system based on the imaging data of the marker, and the imaging data of the arm is displayed as the real space superimposed on the three-dimensional model and the three-dimensional hand model.
本発明の第2態様に係るロボットアーム試験装置は、ディスプレイと、外部を撮像するカメラと、前記カメラで撮像されたターゲットマーカの撮像データ、及び前記ターゲットマーカに対して設定された座標情報に基づいて、前記カメラの位置及び姿勢を計測する位置姿勢計測部と、前記位置姿勢計測部で計測された前記カメラの位置及び姿勢に基づき、前記ディスプレイを介してユーザに現実空間と3次元モデルとの重畳画像である複合現実感を提示する情報処理部と、アームの先端部に、ハンド部品ではなく前記ターゲットマーカが取り付けられたロボットアームと、前記ターゲットマーカに対応して設定された、前記ハンド部品を表す前記3次元モデルを記憶する記憶部と、を備え、前記情報処理部は、前記ディスプレイに、前記現実空間とともに、前記ターゲットマーカの撮像データに基づいて前記3次元モデルを表示する。 A robot arm testing device according to a second aspect of the present invention includes a display, a camera that images the outside, image data of a target marker imaged by the camera, and coordinate information set for the target marker. a position and orientation measurement unit that measures the position and orientation of the camera; and a display that allows the user to see the real space and the three-dimensional model through the display based on the position and orientation of the camera measured by the position and orientation measurement unit. an information processing unit that presents a mixed reality that is a superimposed image; a robot arm having the target marker attached to the tip of the arm instead of a hand component; and the hand component configured to correspond to the target marker. a storage unit that stores the three-dimensional model representing the target marker, and the information processing unit displays the three-dimensional model on the display based on the image data of the target marker along with the real space.
本発明の第1態様によれば、ディスプレイには、第1座標系で定義された3次元モデル、第2座標系で定義されたハンド部品を表す3次元ハンドモデル、及び実機のアームを撮像データのままで表す現実空間が重畳的に表示される。カメラで撮像しているアームを実際に作動させると、ディスプレイでは、3次元モデル(第1座標)上をアームの撮像データが作動する。そして、アームの先端部が移動すると、それに応じて第2ターゲットマーカ(第2座標の原点)が移動し、3次元ハンドモデルが第1座標上を移動する。第2ターゲットマーカが首を振って位置や姿勢を変えるたびに、第2座標系における3次元ハンドモデルの位置姿勢が変化する。 According to the first aspect of the present invention, the display includes a three-dimensional model defined in the first coordinate system, a three-dimensional hand model representing hand parts defined in the second coordinate system, and imaged data showing the arm of the actual machine. The real space represented as it is is displayed in a superimposed manner. When the arm that is being imaged by the camera is actually activated, the imaging data of the arm is activated on the three-dimensional model (first coordinates) on the display. When the tip of the arm moves, the second target marker (origin of the second coordinates) moves accordingly, and the three-dimensional hand model moves on the first coordinates. Every time the second target marker shakes its head and changes its position or orientation, the position or orientation of the three-dimensional hand model in the second coordinate system changes.
この構成によれば、3次元ハンドモデル又はアームが3次元モデルに接触しても、実際にハンド部品が他のものに接触するわけではないため、ハンド部品の損傷は防止される。また、3次元モデルとして工場の実機配置データを設定することで、実際に工場にロボットアームを配置することなく、別の場所で予め動作・干渉試験を実施できる。また、3次元ハンドモデルのデータを変更するだけで、別のハンド部品に対する試験が可能となる。このように第1態様によれば、ロボットアームのハンド部品の損傷が防止されるとともに、容易にハンド部品の動作・干渉試験を実行することができる。 According to this configuration, even if the three-dimensional hand model or the arm contacts the three-dimensional model, the hand components do not actually come into contact with anything else, so damage to the hand components is prevented. Furthermore, by setting the factory's actual machine layout data as a three-dimensional model, motion and interference tests can be conducted in advance at a different location without actually placing the robot arm in the factory. Further, by simply changing the data of the three-dimensional hand model, it is possible to test another hand component. As described above, according to the first aspect, damage to the hand components of the robot arm can be prevented, and operation/interference tests of the hand components can be easily performed.
参考態様によれば、ディスプレイには、実際にカメラが撮像した撮像データ(現実空間)上に、ハンド部品が3次元モデルとして表示される。実際のアームの移動に応じてターゲットマーカの位置姿勢が変化し、ディスプレイ上の3次元モデルも位置姿勢が変化する。このように、ターゲットマーカの撮像データの変化により、ディスプレイにおける現実空間上に浮かび上がるハンド部品の3次元モデルの位置姿勢が変化する。下記の第2実施形態は、参考態様に相当する。 According to the reference aspect, the hand parts are displayed as a three-dimensional model on the display on the image data (real space) actually captured by the camera. The position and orientation of the target marker changes in accordance with the actual movement of the arm, and the position and orientation of the three-dimensional model on the display also change. In this way, the position and orientation of the three-dimensional model of the hand component that appears in the real space on the display changes due to a change in the image data of the target marker. The second embodiment below corresponds to a reference aspect.
この構成によれば、実際に工場にロボットアームを配置して試験する際、ターゲットマーカと他の装置との接触は生じ得るが、実際のハンド部品と他の装置との接触は生じ得ない。したがって、ハンド部品の損傷は防止される。また、実際のハンド部品を取り換えることなく、表示される3次元モデルのデータを変更するだけで、複数種類のハンド部品の動作・干渉試験を行うことができる。このように第2態様によれば、ロボットアームのハンド部品の損傷が防止されるとともに、容易にハンド部品の動作・干渉試験を実行することができる。 According to this configuration, when the robot arm is actually placed in a factory and tested, the target marker may come into contact with other devices, but the actual hand component may not come into contact with other devices. Therefore, damage to the hand parts is prevented. Furthermore, it is possible to perform operation/interference tests on multiple types of hand parts simply by changing the data of the displayed three-dimensional model without replacing the actual hand parts. As described above, according to the second aspect, damage to the hand components of the robot arm can be prevented, and operation/interference tests of the hand components can be easily performed.
以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付してある。また、説明に用いる各図は概念図である。実施形態相互に説明及び図面を参照できる。 Embodiments of the present invention will be described below based on the drawings. Note that in each of the following embodiments, parts that are the same or equivalent to each other are given the same reference numerals in the drawings. Moreover, each figure used for explanation is a conceptual diagram. The description and drawings of each embodiment may be referred to.
<第1実施形態>
第1実施形態のロボットアーム試験装置1は、図1に示すように、ディスプレイ2と、カメラ3と、位置姿勢計測部4と、情報処理部5と、ロボットアーム6と、記憶部7と、を備えている。カメラ3は、外部を撮像する装置である。第1実施形態の例において、ロボットアーム試験装置1は、CPUやメモリを備えるタブレット端末100と、ロボットアーム6と、を備えている。
<First embodiment>
As shown in FIG. 1, the robot
タブレット端末100は、ディスプレイ2と、カメラ3と、位置姿勢計測部4と、情報処理部5と、記憶部7と、を備えている。タブレット端末100は、MRに関するソフトウェアが搭載されたコンピュータである。ディスプレイ2はタブレット端末100の表面に設けられ、カメラ3はタブレット端末100の背面に設けられている。各機能部4、5、7は、タブレット端末100の内部に配置されている。
The
位置姿勢計測部4は、カメラ3で撮像された第1座標系のターゲットマーカである第1ターゲットマーカ91の撮像データ、及び第1ターゲットマーカ91に対して設定された座標情報に基づいて、カメラ3の位置及び姿勢を計測する。第1座標系は、3次元のいわゆる世界座標系(ワールド座標系)であり、原点位置と3軸とで規定されている。位置姿勢計測部4は、撮像データにおける第1ターゲットマーカ91の大きさや形状により、カメラ3の位置姿勢を演算する。
The position and
位置姿勢計測部4は、第1ターゲットマーカ91のパターンに応じて設定された座標情報を読み取り、カメラ3がどの位置からどの方向を向いているかを推測する。ロボットアーム6の背後に配置された壁面や設置面、又はディスプレイには、複数の第1ターゲットマーカ91が表示されている。
The position/
情報処理部5は、位置姿勢計測部4で計測されたカメラ3の位置及び姿勢に基づき、ディスプレイ2を介してユーザに現実空間と3次元モデル81との重畳画像である複合現実感(MR)を提示する。3次元モデル81は、例えば工場をスキャンして得た点群データ又は当該点群データに基づく画像データである。
Based on the position and orientation of the
MRとしてディスプレイ2に表示する3次元モデル81は、第1ターゲットマーカ91の座標情報と対応し、カメラ3が撮像する第1ターゲットマーカ91の位置等の変化に応じて見え方が変化する。例えば第1ターゲットマーカ91の位置、大きさ、パターン、及び形状(撮像角度)に基づき、カメラ3の対象スペースでの位置姿勢が推定できる。例えば特開2015-215191号公報及び特開2008-70267号公報に記載されているように、複合現実感装置(MR装置)は、カメラ3で撮像されたターゲットマーカの撮像データに基づいて、公知の方法でカメラ3の位置と姿勢を計測できる。複合現実感装置(MR装置)は、公知の装置であって、詳細な説明は省略する。
The three-dimensional model 81 displayed on the
ロボットアーム6は、アーム61の先端部に、ハンド部品でなく、第1座標系から独立した第2座標系のターゲットマーカである第2ターゲットマーカ92が取り付けられたロボットアームである。つまり、ロボットアーム6には、実際のハンド部品は取り付けられておらず、代わりにハンド部品が配置される予定の場所に第2ターゲットマーカ92が取り付けられている。第2座標系は、副座標系である。つまり、第2座標系の原点は、第1座標上を第1座標の原点位置に影響することなく、アーム61の移動に伴い移動する。
The
アーム61は、例えば、1つ又は複数の関節を持ち、回転や小アームごとの作動が可能である。複数の第2ターゲットマーカ92がアーム61の先端部に設置されている。第2ターゲットマーカ92は、例えば、複数の6面体を組み合わせた部材の表面に複数配置されている。複数の第2ターゲットマーカ92が立体的に(垂線が交差するように)配置されている。
The
記憶部7は、第2ターゲットマーカ92に対応して設定された、ロボットアーム6のハンド部品を表す複数の3次元ハンドモデル82を記憶する装置である。3次元ハンドモデルは、例えば、把持ハンド、溶接トーチ、研磨ハンド、又はバキュームハンド等のCG(コンピュータグラフィックス)である。記憶部7には、形状が異なる複数の3次元ハンドモデル82が記憶されている。
The
ここで、図2に示すように、情報処理部5は、ディスプレイ2に、第1ターゲットマーカ91の撮像データに基づいて3次元モデルを表示し、第2ターゲットマーカ92の撮像データに基づいて3次元ハンドモデル82を表示し、アーム61の撮像データを現実空間として3次元モデル及び3次元ハンドモデルに重畳して表示する。
Here, as shown in FIG. 2, the
情報処理部5では、カメラ3の撮像データのうち特定の色の部分が重畳画像での現実空間として表示されるように設定されている。この特定色として、アーム61表面の色(大部分が同色)が設定されている。したがって、情報処理部5は、アーム61表面の色を現実空間としてディスプレイ2に表示するため、実機のアーム61の撮像データがそのままディスプレイ2に表示される。カメラ3の撮像範囲内でアーム61が移動すると、ディスプレイ2でもCGなしに表示されたアーム61が第1座標上を移動する。このように、第1実施形態では、アーム61の3次元モデルは不要である。
The
ロボットアーム6を作動させ、第2ターゲットマーカ92のみを移動・姿勢変更させると、ディスプレイ2では、3次元ハンドモデル82だけが移動・姿勢変更する。位置姿勢計測部4は、第2ターゲットマーカ92の見え方により、第1座標上で第2座標の原点の移動、姿勢変更等を把握する。位置姿勢計測部4は、第2座標の原点により第1座標上のアーム61の位置が決まるため、第2ターゲットマーカ92とアーム61との相対位置関係も把握できる。したがって、ディスプレイ2において、3次元ハンドモデル82とアーム61との前後関係(手前・背後)により、3次元ハンドモデル82がアーム61の手前に見えたりアーム61に隠れたりする。なお、図3は、原点位置の設定例である。
When the
第1実施形態では、アーム61は、少なくとも一部の色が、カメラ3の撮像データにおけるアーム61の背景の色と異なる特定色となるように配色されている。そして、情報処理部5は、特定色を3次元モデル81の手前に表示する。これにより、より明確にアーム61が表示される。
In the first embodiment, the
3次元モデル81と3次元ハンドモデル82とが接触する(同座標になる)と、例えば接触部分の3次元ハンドモデル82が表示されなくなる。あるいは、接触部分だけを別の表示(色、点滅等)することも可能である。このように、情報処理部5は、3次元モデル81と3次元ハンドモデル82との接触部分に対して、色変更処理及び点滅処理の少なくとも一方を含む特殊表示処理を実行してもよい。
When the three-dimensional model 81 and the three-dimensional hand model 82 come into contact (become the same coordinates), for example, the three-dimensional hand model 82 at the contact portion is no longer displayed. Alternatively, it is also possible to display only the touched portion in a different manner (color, blinking, etc.). In this manner, the
(第1実施形態の効果)
第1実施形態によれば、ディスプレイ2には、第1座標系で定義された3次元モデル81、第2座標系で定義されたハンド部品を表す3次元ハンドモデル82、及び実機のアーム61を撮像データのままで表す現実空間(特定色の表示)が重畳的に表示される。カメラ3で撮像しているアーム61を実際に作動させると、ディスプレイ2では、3次元モデル81(第1座標)上をアーム61の撮像データが作動する。そして、アーム61の先端部が移動すると、それに応じて第2ターゲットマーカ92(第2座標の原点)が移動し、3次元ハンドモデル82が第1座標上を移動する。第2ターゲットマーカ92が首を振って位置や姿勢を変えるたびに、第2座標系における3次元ハンドモデル82の位置姿勢が変化する。
(Effects of the first embodiment)
According to the first embodiment, the
この構成によれば、3次元ハンドモデル82又はアーム61が3次元モデルに接触しても、実際にハンド部品が他のものに接触するわけではないため、ハンド部品の損傷は防止される。また、3次元モデル81として工場の実機配置データを設定することで、実際に工場にロボットアーム6を配置することなく、別の場所で予め動作・干渉試験を実施できる。また、3次元ハンドモデル82のデータを変更するだけで、別のハンド部品に対する試験が可能となる。このように第1実施形態によれば、ロボットアーム6のハンド部品の損傷が防止されるとともに、容易にハンド部品の動作・干渉試験を実行することができる。
According to this configuration, even if the three-dimensional hand model 82 or the
(別の例)
図4に示す例では、カメラ3とディスプレイ2とが別体(有線で接続)である。また、複数の第2ターゲットマーカ92が1つの立体(複数の立方体で形成)に添付されている。この場面では、第2ターゲットマーカ92の背後にアーム61が位置するように、カメラ3が第2ターゲットマーカ92を正面から撮像している。これにより、第2ターゲットマーカ92(立体)の背後に隠れたアーム61の一部は、特定色が検出されないため、白色に抜けた状態でディスプレイ2に表示される。このように、タブレット端末100は、座標から前後関係(奥行き)を把握したうえで、ディスプレイ2に対象を表示する。
(another example)
In the example shown in FIG. 4, the
<第2実施形態>
第2実施形態のロボットアーム試験装置1Aは、図5に示すように、タブレット端末100と、ロボットアーム6と、を備えている。タブレット端末100は、ディスプレイ2と、外部を撮像するカメラ3と、位置姿勢計測部4と、情報処理部5と、記憶部7と、を備えている。
<Second embodiment>
The robot
位置姿勢計測部4は、カメラ3で撮像されたターゲットマーカ93の撮像データ、及びターゲットマーカ93に対して設定された座標情報に基づいて、カメラ3の位置及び姿勢を計測する。情報処理部5は、位置姿勢計測部4で計測されたカメラ3の位置及び姿勢に基づき、ディスプレイ2を介してユーザに現実空間と3次元モデルとの重畳画像である複合現実感を提示する。ロボットアーム6は、アーム61の先端部に、ハンド部品でなくターゲットマーカ93が取り付けられたロボットアームである。記憶部7は、ターゲットマーカ93に対応して設定された、ハンド部品を表す3次元モデルを記憶する装置である。記憶部7には、形状が異なる複数の3次元モデルが記憶されている。
The position and
第2実施形態の情報処理部5は、ディスプレイ2に、現実空間とともに、ターゲットマーカ93の撮像データに基づいて3次元モデルを表示する。つまり、第2実施形態では、第1実施形態と異なり、ハンド部品を表す3次元モデルだけがCGで表示され、その他は撮像データそのままが現実空間として表示される。第2実施形態でディスプレイ2に表示される画面は、例えば図4における3次元ハンドモデル82以外の部分が実際の撮像データである状態に相当する。第2実施形態では、副座標系のみが座標系として存在する。
The
(第2実施形態の効果)
第2実施形態によれば、ディスプレイ2には、実際にカメラ3が撮像した撮像データ(現実空間)上に、ハンド部品が3次元モデルとして表示される。実際のアーム61の移動に応じてターゲットマーカ93の位置姿勢が変化し、ディスプレイ2上の3次元モデルも位置姿勢が変化する。このように、ターゲットマーカ93の撮像データの変化により、ディスプレイ2における現実空間上に浮かび上がるハンド部品の3次元モデルの位置姿勢が変化する。
(Effects of the second embodiment)
According to the second embodiment, hand parts are displayed as a three-dimensional model on the
この構成によれば、実際に工場にロボットアーム6を配置して試験する際、ターゲットマーカ93と他の装置との接触は生じ得るが、実際のハンド部品と他の装置との接触は生じ得ない。したがって、ハンド部品の損傷は防止される。また、実際のハンド部品を取り換えることなく、表示される3次元モデルのデータを変更するだけで、複数種類のハンド部品の動作・干渉試験を行うことができる。このように第2実施形態によれば、ロボットアーム6のハンド部品の損傷が防止されるとともに、容易にハンド部品の動作・干渉試験を実行することができる。
According to this configuration, when the
<その他>
本発明は、上記実施形態に限られない。例えば、ディスプレイ2とカメラ3とは、例えばヘッドマウントディスプレイやタブレット端末のように一体的に配置されてもよいし、あるいは互いに相対移動できるように両者が有線又は無線により通信可能に接続されていてもよい。タブレット端末100によれば、容易に且つ複数人でMR画像を確認できる。また、各機能は、タブレット端末100に限らず、別のコンピュータにより実現されてもよい。
<Others>
The present invention is not limited to the above embodiments. For example, the
また、参考として、複数のカメラを配置して、球状反射マーカの位置を検出する光学式センサを用いても、上記試験は実行可能である。ただし、上記実施形態のように、平板状のターゲットマーカを用いた装置のほうが、設備の簡素化が可能であり、より容易に試験を実行することができる。 Further, as a reference, the above test can also be performed by arranging a plurality of cameras and using an optical sensor that detects the position of the spherical reflective marker. However, as in the above embodiment, an apparatus using a flat target marker allows for simpler equipment and allows for easier testing.
第1実施形態によれば、ARとは異なり、2つの座標系が別々に設定されており、3次元ハンドモデル82の独立した動きを可能としている。また、第1実施形態では、仮想空間に3次元の仮想工場を再現することができ、実機と仮想工場空間との融合が可能となる。 According to the first embodiment, unlike AR, two coordinate systems are set separately, allowing the three-dimensional hand model 82 to move independently. Furthermore, in the first embodiment, a three-dimensional virtual factory can be reproduced in a virtual space, and it is possible to integrate a real machine and a virtual factory space.
また、ロボットアーム試験装置1、1Aによれば、CGと実機との距離感を精度よく反映してディスプレイ2に表示することができる。また、ロボットアーム試験装置1、1Aは、例えば、作業者の訓練に、ロボットティーチに、又はトレーニング機として利用することができる。ロボットアーム試験装置1Aは、設置工場空間での障害物との仮想事前干渉確認が可能となる。ロボットアーム試験装置1、1Aによれば、工場又は仮想工場空間でのロボットモーション確認が容易に可能となる。ロボットアーム試験装置は、バーチャルロボットハンドシミュレーションシステムともいえる。ハンド部品は、ロボットハンドともいえる。
Moreover, according to the robot
1、1A…ロボットアーム試験装置、2…ディスプレイ、3…カメラ、4…位置姿勢計測部、5…情報処理部、6…ロボットアーム、61…アーム、81…3次元モデル(例えば点群データによる背景画像)、82…3次元ハンドモデル、91…第1ターゲットマーカ、92…第2ターゲットマーカ、93…ターゲットマーカ。
DESCRIPTION OF
Claims (5)
外部を撮像するカメラと、
前記カメラで撮像された第1座標系のターゲットマーカである第1ターゲットマーカの撮像データ、及び前記第1ターゲットマーカに対して設定された座標情報に基づいて、前記カメラの位置及び姿勢を計測する位置姿勢計測部と、
前記位置姿勢計測部で計測された前記カメラの位置及び姿勢に基づき、前記ディスプレイを介してユーザに現実空間と3次元モデルとの重畳画像である複合現実感を提示する情報処理部と、
アームの先端部のハンド部品が配置される予定の場所に、前記ハンド部品ではなく、前記第1座標系から独立した第2座標系のターゲットマーカである第2ターゲットマーカが取り付けられたロボットアームと、
前記第2ターゲットマーカに対応して設定された、前記ハンド部品を表す3次元ハンドモデルを記憶する記憶部と、
を備え、
前記3次元モデルは、実機配置データであり、
前記第1座標系は、ワールド座標系であり、
前記第2座標系は、その原点が、前記第1座標系上で前記第2ターゲットマーカの移動に伴い移動する副座標系であり、
前記情報処理部は、
前記ディスプレイに、前記第1ターゲットマーカの撮像データに基づいて前記3次元モデルを表示し、前記第2ターゲットマーカの撮像データに基づいて前記第1座標系上で前記3次元ハンドモデルを表示し、前記アームの撮像データを前記現実空間として前記3次元モデル及び前記3次元ハンドモデルに重畳して表示するロボットアーム試験装置。 display and
A camera that captures images of the outside,
The position and orientation of the camera are measured based on imaging data of a first target marker that is a target marker in a first coordinate system captured by the camera and coordinate information set for the first target marker. a position and orientation measurement unit;
an information processing unit that presents mixed reality, which is a superimposed image of real space and a three-dimensional model, to the user via the display based on the position and orientation of the camera measured by the position and orientation measurement unit;
a robot arm in which a second target marker, which is a target marker of a second coordinate system independent from the first coordinate system, is attached, instead of the hand component, at a location at the tip of the arm where the hand component is scheduled to be placed; ,
a storage unit that stores a three-dimensional hand model representing the hand component, which is set corresponding to the second target marker;
Equipped with
The three-dimensional model is actual machine layout data,
The first coordinate system is a world coordinate system,
The second coordinate system is a sub-coordinate system whose origin moves as the second target marker moves on the first coordinate system,
The information processing unit includes:
displaying the three-dimensional model on the display based on the imaging data of the first target marker; displaying the three-dimensional hand model on the first coordinate system based on the imaging data of the second target marker; A robot arm testing device that superimposes and displays imaging data of the arm on the three-dimensional model and the three-dimensional hand model as the real space.
前記第2ターゲットマーカは、平板状であり、 The second target marker has a flat plate shape,
複数の前記第2ターゲットマーカが、前記立体物の表面に、立体的に配置されている、 a plurality of the second target markers are three-dimensionally arranged on the surface of the three-dimensional object;
請求項1に記載のロボットアーム試験装置。 The robot arm testing device according to claim 1.
請求項1又は2に記載のロボットアーム試験装置。 The robot arm testing device according to claim 1 or 2.
前記情報処理部は、前記特定色を前記3次元モデルの手前に表示する請求項1~3の何れか一項に記載のロボットアーム試験装置。 The arm is colored so that at least part of the color is a specific color different from a background color of the arm in the imaging data of the camera,
The robot arm testing device according to claim 1 , wherein the information processing section displays the specific color in front of the three-dimensional model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019185557A JP7443014B2 (en) | 2019-10-08 | 2019-10-08 | robot arm testing equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019185557A JP7443014B2 (en) | 2019-10-08 | 2019-10-08 | robot arm testing equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021058979A JP2021058979A (en) | 2021-04-15 |
JP7443014B2 true JP7443014B2 (en) | 2024-03-05 |
Family
ID=75381128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019185557A Active JP7443014B2 (en) | 2019-10-08 | 2019-10-08 | robot arm testing equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7443014B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113658247B (en) * | 2021-07-29 | 2024-05-28 | 武汉联影智融医疗科技有限公司 | Instrument space prediction method, apparatus, computer device and storage medium |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003296759A (en) | 2002-03-29 | 2003-10-17 | Canon Inc | Information processing method and device |
JP2009214212A (en) | 2008-03-10 | 2009-09-24 | Toyota Motor Corp | Action teaching system, and action teaching method |
JP2013526423A (en) | 2010-05-14 | 2013-06-24 | コグネックス・テクノロジー・アンド・インベストメント・コーポレーション | Apparatus and method for robust calibration between machine vision system and robot |
JP2014010664A (en) | 2012-06-29 | 2014-01-20 | Sony Computer Entertainment Inc | Video processing apparatus, video processing method, and video processing system |
JP2014079824A (en) | 2012-10-15 | 2014-05-08 | Toshiba Corp | Work screen display method and work screen display device |
WO2014161603A1 (en) | 2013-04-05 | 2014-10-09 | Abb Technology Ltd | A robot system and method for calibration |
JP2015058488A (en) | 2013-09-17 | 2015-03-30 | セイコーエプソン株式会社 | Robot control system, robot, robot control method, and program |
CN104819707A (en) | 2015-04-23 | 2015-08-05 | 上海大学 | Polyhedral active cursor target |
JP2016197393A (en) | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | Information processor, information processing method and program |
JP2017104944A (en) | 2015-12-10 | 2017-06-15 | ファナック株式会社 | Robot system provided with video display device for superimposingly displaying image of virtual object on robot video |
JP2017205848A (en) | 2016-05-20 | 2017-11-24 | 日本信号株式会社 | Service providing system |
JP2018005499A (en) | 2016-06-30 | 2018-01-11 | キヤノンマーケティングジャパン株式会社 | Virtual space control device, control method of the same, and program |
JP2019008473A (en) | 2017-06-22 | 2019-01-17 | ファナック株式会社 | Composite reality simulation device and composite reality simulation program |
JP2019029021A (en) | 2017-07-30 | 2019-02-21 | 国立大学法人 奈良先端科学技術大学院大学 | Learning data set preparing method, as well as object recognition and position attitude estimation method |
JP2019030943A (en) | 2017-08-09 | 2019-02-28 | オムロン株式会社 | Calibration method, calibration system and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07214485A (en) * | 1993-12-07 | 1995-08-15 | Mitsubishi Electric Corp | Robot system |
JP3512092B2 (en) * | 1994-07-29 | 2004-03-29 | マツダ株式会社 | Calibration device |
-
2019
- 2019-10-08 JP JP2019185557A patent/JP7443014B2/en active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003296759A (en) | 2002-03-29 | 2003-10-17 | Canon Inc | Information processing method and device |
JP2009214212A (en) | 2008-03-10 | 2009-09-24 | Toyota Motor Corp | Action teaching system, and action teaching method |
JP2013526423A (en) | 2010-05-14 | 2013-06-24 | コグネックス・テクノロジー・アンド・インベストメント・コーポレーション | Apparatus and method for robust calibration between machine vision system and robot |
JP2014010664A (en) | 2012-06-29 | 2014-01-20 | Sony Computer Entertainment Inc | Video processing apparatus, video processing method, and video processing system |
JP2014079824A (en) | 2012-10-15 | 2014-05-08 | Toshiba Corp | Work screen display method and work screen display device |
WO2014161603A1 (en) | 2013-04-05 | 2014-10-09 | Abb Technology Ltd | A robot system and method for calibration |
JP2015058488A (en) | 2013-09-17 | 2015-03-30 | セイコーエプソン株式会社 | Robot control system, robot, robot control method, and program |
JP2016197393A (en) | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | Information processor, information processing method and program |
CN104819707A (en) | 2015-04-23 | 2015-08-05 | 上海大学 | Polyhedral active cursor target |
JP2017104944A (en) | 2015-12-10 | 2017-06-15 | ファナック株式会社 | Robot system provided with video display device for superimposingly displaying image of virtual object on robot video |
JP2017205848A (en) | 2016-05-20 | 2017-11-24 | 日本信号株式会社 | Service providing system |
JP2018005499A (en) | 2016-06-30 | 2018-01-11 | キヤノンマーケティングジャパン株式会社 | Virtual space control device, control method of the same, and program |
JP2019008473A (en) | 2017-06-22 | 2019-01-17 | ファナック株式会社 | Composite reality simulation device and composite reality simulation program |
JP2019029021A (en) | 2017-07-30 | 2019-02-21 | 国立大学法人 奈良先端科学技術大学院大学 | Learning data set preparing method, as well as object recognition and position attitude estimation method |
JP2019030943A (en) | 2017-08-09 | 2019-02-28 | オムロン株式会社 | Calibration method, calibration system and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021058979A (en) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104057453B (en) | The manufacture method of robot device and machined object | |
JP5390813B2 (en) | Spatial information display device and support device | |
US8406923B2 (en) | Apparatus for determining pickup pose of robot arm with camera | |
US7818091B2 (en) | Process and device for determining the position and the orientation of an image reception means | |
US8731276B2 (en) | Motion space presentation device and motion space presentation method | |
EP1435280B1 (en) | A method and a system for programming an industrial robot | |
JP7238060B2 (en) | Information processing device, its control method, and program | |
JP4667111B2 (en) | Image processing apparatus and image processing method | |
JP2008532149A (en) | Method and apparatus for determining optical overlap with an AR object | |
US20050149231A1 (en) | Method and a system for programming an industrial robot | |
WO2019152617A1 (en) | Calibration system and method to align a 3d virtual scene and 3d real world for a stereoscopic head-mounted display | |
JP2021121461A (en) | Image processing device | |
JP5113666B2 (en) | Robot teaching system and display method of robot operation simulation result | |
KR20150139609A (en) | Part attachment work support system and part attachment method | |
JP6693981B2 (en) | Simulation device for simulating robot movement | |
JP2016197393A (en) | Information processor, information processing method and program | |
JP6295296B2 (en) | Complex system and target marker | |
JP7443014B2 (en) | robot arm testing equipment | |
JP2020013548A (en) | Image processing apparatus, image processing method, system, article manufacturing method | |
CN113597362A (en) | Method and control device for determining a relation between a robot coordinate system and a movable device coordinate system | |
JP2019207153A (en) | Simulation device, simulation method, and program | |
JP2022163836A (en) | Method for displaying robot image, computer program, and method for displaying robot image | |
CN113853646B (en) | Image processing method, image processing apparatus, and recording medium having image processing program recorded thereon | |
CN114465910B (en) | Machining equipment calibration method based on augmented reality technology | |
JP2016099839A (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210528 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7443014 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |