JP6582921B2 - Robot monitor system - Google Patents
Robot monitor system Download PDFInfo
- Publication number
- JP6582921B2 JP6582921B2 JP2015230572A JP2015230572A JP6582921B2 JP 6582921 B2 JP6582921 B2 JP 6582921B2 JP 2015230572 A JP2015230572 A JP 2015230572A JP 2015230572 A JP2015230572 A JP 2015230572A JP 6582921 B2 JP6582921 B2 JP 6582921B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- head
- image data
- image
- worker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 8
- 238000000034 method Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004441 surface measurement Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、ロボット本体を画像によりモニタするシステムに関する。 The present invention relates to a system for monitoring a robot body by an image.
従来、ロボットと人とが共存する設備では、ロボットコントローラが例えばライトカーテンやレーザセンサ等を用いて人が接近したことを検出すると、ロボットアームの動作を停止させたり安全な低速で動作させることで、人の安全を確保するように制御している。 Conventionally, in a facility where robots and people coexist, when the robot controller detects that a person has approached using, for example, a light curtain or a laser sensor, the robot arm can be stopped or operated at a safe low speed. Control to ensure the safety of people.
しかしながら、作業者がロボットアームに背を向けて作業している状態では、作業者はロボットアームを目視することができない。
本発明は上記事情に鑑みてなされたものであり、その目的は、作業者がロボット本体に背を向けている状態でも、ロボット本体をモニタできるロボットモニタシステムを提供することにある。
However, when the worker is working with his back to the robot arm, the worker cannot visually observe the robot arm.
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a robot monitor system capable of monitoring a robot body even when an operator is turning his back to the robot body.
請求項1記載のロボットモニタシステムによれば、位置情報取得部は、ロボット本体の作業領域内に位置する作業者の位置情報を取得し、方向情報出力部は、前記作業領域内に位置する作業者の頭部正面が向いている方向である頭部方向を検出するための方向情報を出力する。
表示制御部は、前記作業領域内に作業者が位置しており、且つ方向情報より検出される作業者の頭部方向が、当該作業者の背面側にロボット本体が位置する方向にあると、前記ロボット本体の画像データを、その時の作業者の位置からロボット本体を視界に入れた際に見えるロボット本体の状態の画像となるように加工して頭部装着型ディスプレイの表示部に投影する。
According to the robot monitor system of the first aspect, the position information acquisition unit acquires the position information of the worker located in the work area of the robot body, and the direction information output unit performs the work located in the work area. The direction information for detecting the head direction, which is the direction in which the person's head front is facing, is output.
Display control unit, the located worker in the work area, and the head direction of the operator detected from the direction information, the robot body on the rear side of the operator is in the direction in which the position, The image data of the robot main body is processed so as to be an image of the state of the robot main body that can be seen when the robot main body is put into view from the position of the operator at that time, and is projected onto the display unit of the head-mounted display.
このように構成すれば、作業者がロボット本体に背を向けていることでロボット本体を直接目視できない状態にあっても、ロボット本体の画像データが、作業者がその位置からロボット本体側に振り返った際に見えるロボット本体の状態で頭部装着型ディスプレイに投影される。したがって、作業者は、自身の背面側に位置するロボット本体の状態を、頭部装着型ディスプレイに表示された画像により確認できるようになり、作業時の安全性を向上させることができる。 According to this structure, even in a state that can not be visually robot directly by the operator is turned against the robot body, images data of the robot body, the work skill that position the robot body It is projected on the head mounted display in the state of the robot body that can be seen when looking back. Therefore, the operator can confirm the state of the robot body located on the back side of the user by the image displayed on the head-mounted display, and can improve safety during work.
請求項2記載のロボットモニタシステムによれば、表示制御部は、ロボット本体を3次元でモデリングした3Dモデル画像データを前記加工の対象とする。このように構成すれば、作業者は、ロボット本体が3Dモデル画像で表示されることで、自身の背面側に位置するロボット本体の状態をよりリアルに視認できる。 According to the robot monitor system of the second aspect, the display control unit uses the 3D model image data obtained by modeling the robot body in three dimensions as the processing target. If comprised in this way, an operator can visually recognize the state of the robot main body located in the back side of himself more realistically by displaying a robot main body by a 3D model image.
請求項3記載のロボットモニタシステムによれば、表示制御部は、ロボット本体の姿勢情報を取得すると、頭部装着型ディスプレイの表示部に投影する画像データを、その時点の姿勢情報に応じた姿勢の画像データに加工する。このように構成すれば、作業者は、表示部に表示された画像によりその時点のロボット本体の姿勢も認識できる。したがって、安全性をより向上させることができる。
According to the robot monitor system of
請求項4記載のロボットモニタシステムによれば、表示制御部は、位置情報よりロボット本体と前記作業者との距離を求めると、その距離に応じて頭部装着型ディスプレイの表示部に投影する画像データの大きさを変化させる。このように構成すれば、作業者は、頭部装着型ディスプレイに表示された画像によって、その時点のロボット本体との距離感も認識できるようになり、安全性を更に向上させることができる。
According to the robot monitor system of
請求項5記載のロボットモニタシステムによれば、方向情報出力部に頭部装着型ディスプレイに配置される撮像器を備え、その撮像器により撮像された画像を処理して作業者の頭部方向を検出する。すなわち、頭部装着型ディスプレイに配置した撮像器によって、作業者の頭部が正面を向いている状態の画像を撮像すれば、その画像により作業者の視界にロボット本体が入っているか否かが分かる。したがって、撮像器により撮像された画像を処理すれば、作業者の頭部方向を容易に検出できる。 According to the robot monitor system of the fifth aspect, the direction information output unit includes the image pickup device arranged on the head-mounted display, and the image picked up by the image pickup device is processed to determine the head direction of the operator. To detect. That is, if an image with the head mounted on the head-mounted display is used to capture an image with the operator's head facing the front, it is determined whether or not the robot body is in the operator's field of view based on the image. I understand. Therefore, if the image picked up by the image pickup device is processed, the head direction of the operator can be easily detected.
以下、一実施形態について説明する。図1は、本実施形態のロボットモニタシステムの構成を概略的に示す機能ブロック図である。このシステム1は、例えば組立用のロボットアーム2,このロボットアーム2を制御するロボットコントローラ3,カメラ4,眼鏡型モニタ5,付属カメラ6及び眼鏡型モニタデバイス7より構成されている。
Hereinafter, an embodiment will be described. FIG. 1 is a functional block diagram schematically showing the configuration of the robot monitor system of the present embodiment. The system 1 includes, for example, a robot arm for
ロボット本体であるロボットアーム2は、例えば6軸の垂直多関節型ロボットとして構成されている。一般的な構成につき詳しい説明は省略するが、このロボットアーム2は、夫々サーボモータにより駆動される6軸のアームを有し、第6軸アームの先端部に、例えばパレット内に収容されているワークを把持するためのハンド等を備えている。ロボットアーム2は、前記ロボットコントローラ3に図示しない接続ケーブルを介して接続され、前記各軸のサーボモータがこのロボットコントローラ3により制御される。
The
表示制御部及びロボット側制御装置に対応するロボットコントローラ3は、矩形箱状をなすフレーム内に、何れも図示しない制御回路やサーボ制御部、電源装置等を組込んで構成されている。制御回路はマイコンを主体として構成され、予め記憶された動作プログラムや、図示しないティーチングペンダント等により設定された教示データ、各種パラメータ等に従い、サーボ制御部を介してロボットアーム2の各軸サーボモータを制御し、ロボットアーム2によるワークの組付け作業等を自動で実行させる。
The
また、ロボットコントローラ3には、上記の制御を行うため、各軸に配置されている図示しないエンコーダからのエンコーダ値が入力されている。更に、ロボットコントローラ3は、ロボットアーム2の形態を3次元的にモデリングしたデータである3Dモデル画像データを内部のメモリに記憶して保持している。
Further, in order to perform the above-described control, the
カメラ4は、その撮像領域が少なくともロボットアーム2の作業領域を含むように、例えば図2に示すように、ロボットアーム2の情報から前記作業領域を俯瞰するような位置に設置されている。カメラ4により撮像された画像データは、ロボットコントローラ3に入力される。カメラ4は位置情報取得部に相当し、図3に平面図を示すように、カメラ4の撮像領域内に作業者8が位置している際には、ロボットコントローラ3が入力される画像データを処理することで、ロボットアーム2の位置を原点として、作業者8の位置を示す情報である2次元座標値(x,y)を取得する。
For example, as shown in FIG. 2, the
頭部装着型ディスプレイである眼鏡型モニタ5は、図1に示すように、作業者8が頭部に眼鏡として装着するもので、眼鏡のレンズ部分に相当する透明な表示部5Dに、図示しない投影部を介して画像を投影可能な所謂透過型のディスプレイである。眼鏡型モニタ5のフレームの一側部には、方向情報出力部及び撮像器である付属カメラ6が配置されており、作業者7が眼鏡型モニタ5を頭部に装着した状態で、作業者8の頭部正面が向いている方向の画像を撮像する。カメラ4及び6は、例えばCCD(Charge Coupled Device)やCMOSイメージセンサなどで構成されている。
As shown in FIG. 1, an eyeglass-
眼鏡型モニタ5は、表示制御部及びディスプレイ側制御装置である眼鏡型モニタデバイス7に無線又は有線で接続されている。眼鏡型モニタデバイス7は、マイクロコンピュータ等を内蔵して構成され、眼鏡型モニタ5の表示部5Dに投影する画像データを送信したり、付属カメラ6により撮像された画像データを受信する。また、眼鏡型モニタデバイス7は、ロボットコントローラ3と有線又は無線通信が可能となっており、ロボットコントローラ3より作業者8の位置情報を含む作業領域の監視情報や、姿勢情報であるロボットアーム2の各軸エンコーダ値,及び上述した3Dモデル画像データを取得する。
The eyeglass-
次に、本実施形態の作用について図4及び図5も参照して説明する。図4は、主に眼鏡型モニタデバイス7側の処理内容を示すフローチャートである。眼鏡型モニタデバイス7は、先ずロボットコントローラ3との通信を開始して接続すると(S1)、ロボットアーム2の3Dモデル画像データを取得する(S2)。以降のステップS3〜S14の処理は無限ループとなっている。
Next, the effect | action of this embodiment is demonstrated with reference to FIG.4 and FIG.5. FIG. 4 is a flowchart mainly showing processing contents on the eyeglass-
ステップS4において領域監視情報を取得すると、ロボットアーム2の作業領域内に作業者8が存在するか否かを判断する(S5)。作業者8が存在しておらず「無」と判断するとステップS3に戻る。作業者8が存在しており「有」と判断すると、付属カメラ6より入力される画像データを処理する画像認識を行う(S6)。ここで、前記画像データにロボットアーム2を捉えた画像が含まれており、続くステップS7で「有」と判断した場合は、作業者8の頭部正面は概ねロボットアーム2の方向を向いていると推定されるので「正面判定」とする(S8)。この場合は特段の処理をすることなく、ステップS14に移行する。
When the area monitoring information is acquired in step S4, it is determined whether or not the
一方、ステップS7において、前記画像データにロボットアーム2を捉えた画像が含まれておらず「無」と判断すると、作業者8の頭部正面は概ねロボットアーム2とは反対の方向を向いていると推定されるので「背面判定」とする(S9)。そして、以降のようにロボットアーム2の3Dモデル画像データを加工、眼鏡型モニタ5の表示部5Dに投影する画像データを生成する。
On the other hand, if it is determined in step S7 that the image data does not include an image of the
先ず、作業者8が、現在の位置からロボットアーム2を見ようとした場合に、作業者8に見えるロボットアーム2の方向を算出する(S10)。次に、ロボットコントローラ3より各軸のエンコーダ値を取得すると(S11)、3Dモデル画像データにそのエンコーダ値を反映させて、ロボットアーム2が現在とっている姿勢を再現させる。またこの時、作業者8の位置からロボットアーム2の原点位置までの距離が分かるので、その距離に応じて表示させる画像データの大きさを変化させる(S12)。ここでは言うまでもなく、距離が短くなるほど画像データが大きく表示されるように調整する。画像データの大きさを変化させる段階は必ずしも距離の分解能に比例させる必要はなく、例えば距離の長短を複数段階に区切る等して、その段階に応じて変化させても良い。
First, when the
以上のようにして画像データを生成すると、当該データを眼鏡型モニタ5に送信して表示部5Dに表示させる(S13)。この場合、作業者8が表示部5Dを介して見る視界には、例えば図5に示すように、表示部5Dを透過して見える実景を背景として、表示部5Dの一領域部分に表示されたロボットアーム2の3D画像データが重畳された状態となる。この時、3D画像データを見易くするため、ロボットアーム2の周辺の一定領域が非透明となるように塗り潰すように画像データを生成する。
When the image data is generated as described above, the data is transmitted to the glasses-
以上のように本実施形態によれば、眼鏡型モニタデバイス7は、作業者8が頭部に装着している眼鏡型モニタ5の表示部5Dに投影する映像信号,画像データを送信する。カメラ4は、ロボットアーム2の作業領域内に位置する作業者8の位置情報を取得し、付属カメラ6は、前記作業領域内に位置する作業者8の頭部正面が向いている方向である頭部方向を検出するための方向情報としての画像データを出力する。ロボットコントローラ3は、ロボットアーム2の動作を制御すると共に、ロボットアーム2を3次元でモデリングした3Dモデル画像データを保持する。
As described above, according to the present embodiment, the eyeglass-
眼鏡型モニタデバイス7は、ロボットコントローラ3より3Dモデル画像データを取得し、前記作業領域内に作業者8が位置しており、且つその作業者8の頭部方向が当該作業者8の視界にロボットアーム2が入らない方向にあると、3Dモデル画像データをその時の作業者8の位置からロボットアーム2を視界に入れた際に、ロボットアーム2が見える状態の画像となるように加工して眼鏡型モニタ5の表示部5Dに表示させる。
The eyeglass-
このように構成すれば、作業者8がロボットアーム2に背を向けておりロボットアーム2を直接目視できない状態にあっても、ロボットアーム2の3Dモデル画像データが、作業者8がその位置からロボットアーム2側に振り返った際に見えるロボットアーム2の状態で眼鏡型モニタ5に投影される。したがって、作業者8は、自身の背面側に位置するロボットアーム2の状態を、眼鏡型モニタ5に表示された3D画像によってリアルな状態で確認できるようになり、作業時の安全性を向上させることができる。
With this configuration, even if the
また、眼鏡型モニタデバイス7は、ロボットコントローラ3よりロボットアーム2のエンコーダ値を取得し、眼鏡型モニタ5に投影する3Dモデル画像データを、その時点のエンコーダ値に応じた姿勢の画像データに加工する。このように構成すれば、作業者8は、眼鏡型モニタ5に表示された画像によりその時点のロボットアーム2の姿勢も認識できる。したがって、安全性をより向上させることができる。
The eyeglass-
更に、眼鏡型モニタデバイス7は、位置情報よりロボットアーム2と作業者8との距離を求めると、その距離に応じて眼鏡型モニタ5に投影する3Dモデル画像データの大きさを変化させる。このように構成すれば、作業者8は、眼鏡型モニタ5に表示された画像によって、その時点のロボットアーム2との距離感も認識できるようになり、安全性を更に向上させることができる。
Further, when the distance between the
加えて、眼鏡型モニタデバイス7は、眼鏡型モニタ5に配置される付属カメラ6により撮像された画像を処理して作業者8の頭部方向を検出する。すなわち、付属カメラ6によって作業者8の頭部が正面を向いている状態の画像を撮像すれば、その画像により作業者8の視界にロボットアーム2が入っているか否かが分かる。そして、眼鏡型モニタデバイス7が撮像された画像を処理すれば、作業者8の頭部方向を容易に検出できる。
In addition, the eyeglass-
本発明は上記した、又は図面に記載した実施形態にのみ限定されるものではなく、以下のような変形又は拡張が可能である。
ロボット本体の画像データは、3Dモデル画像を生成するものに限らず、2次元的な画像を生成するものでも良い。
ロボット本体はロボットアーム2に限ることなく、その他例えば水平4軸構成のロボットアーム,自走式のロボットや人型のロボットでも良い。
位置情報取得部に、レーザセンサや赤外センサを用いても良い。
The present invention is not limited to the embodiments described above or shown in the drawings, and the following modifications or expansions are possible.
The image data of the robot body is not limited to the one that generates a 3D model image, but may be one that generates a two-dimensional image.
The robot body is not limited to the
A laser sensor or an infrared sensor may be used for the position information acquisition unit.
カメラ4により撮像される作業者の画像を処理すれば、作業者の頭部が向いている方向を検出できる。したがって、カメラ4に方向情報出力部としての機能を持たせても良いし、カメラ4とは別個のカメラを方向情報出力部として用いても良い。また、これらの画像データを直接、眼鏡型モニタデバイス7に入力しても良い。
表示部5Dに表示させる3Dモデル画像データには、必ずしもロボットアーム2の姿勢を反映させる必要はない。また、画像の大きさを距離に応じて変化させる必要もなく、常に一定の大きさで表示させても良い。
If the worker's image captured by the
It is not always necessary to reflect the posture of the
ディスプレイ側制御装置とロボット側制御装置とを一体の制御装置として構成しても良い。この場合の「通信」は、例えばバスを介して制御装置の内部で行えば良い。
表示制御部としての機能は、必ずしもディスプレイ側制御装置とロボット側制御装置とに振り分ける必要はなく、全ての機能を何れか一方の制御装置に持たせても良い。或いは、全ての機能を独立した第3の制御装置に持たせても良い。
頭部装着型ディスプレイは、必ずしも眼鏡型モニタ5である必要はなく、作業者が頭部に装着する表示部に画像を投影可能に構成されるものであれば良い。
The display-side control device and the robot-side control device may be configured as an integrated control device. The “communication” in this case may be performed inside the control device via a bus, for example.
It is not always necessary to distribute the functions as the display control unit between the display-side control device and the robot-side control device, and all of the functions may be provided in one of the control devices. Alternatively, all functions may be provided in an independent third control device.
The head-mounted display is not necessarily the eyeglass-
図面中、1はロボットモニタシステム、2はロボットアーム、3はロボットコントローラ、4はカメラ、5は眼鏡型モニタ、6は付属カメラ、7は眼鏡型モニタデバイス、8は作業者を示す。 In the drawings, 1 is a robot monitor system, 2 is a robot arm, 3 is a robot controller, 4 is a camera, 5 is an eyeglass monitor, 6 is an attached camera, 7 is an eyeglass monitor device, and 8 is an operator.
Claims (5)
ロボット本体の作業領域内に位置する作業者の位置情報を取得する位置情報取得部と、
前記作業領域内に位置する作業者の頭部正面が向いている方向である頭部方向を検出するための方向情報を出力する方向情報出力部と、
前記作業領域内に作業者が位置しており、且つ前記方向情報より検出される前記作業者の頭部方向が、当該作業者の背面側に前記ロボット本体が位置する方向にあると、前記ロボット本体の画像データを、前記作業者の位置から前記ロボット本体を視界に入れた際に見える状態の画像となるように加工して前記頭部装着型ディスプレイの表示部に投影する表示制御部とを備えるロボットモニタシステム。 A head-mounted display configured to be able to project an image on a display unit worn by the operator on the head; and
A position information acquisition unit for acquiring position information of a worker located in the work area of the robot body;
A direction information output unit that outputs direction information for detecting a head direction that is a direction in which the front of the head of the worker located in the work area is facing;
Located worker in the work area, and the head direction of the operator detected from the direction information, when the robot body on the rear side of the operator is in a direction to position the robot A display control unit that processes the image data of the main body so as to be an image that can be seen when the robot main body is put into view from the position of the operator and projects the image data on the display unit of the head-mounted display; Robot monitor system equipped.
前記頭部装着型ディスプレイの表示部に投影する画像データを、その時点の姿勢情報に応じた姿勢の画像データに加工する請求項1又は2記載のロボットモニタシステム。 The display control unit acquires posture information of the robot body,
The robot monitor system according to claim 1 or 2, wherein the image data projected on the display unit of the head-mounted display is processed into image data having a posture corresponding to posture information at that time.
前記撮像器により撮像された画像を処理することで前記作業者の頭部方向を検出する請求項1から4の何れか一項に記載のロボットモニタシステム。 The direction information output unit has an imager disposed on the head-mounted display,
The robot monitor system according to claim 1, wherein the head direction of the worker is detected by processing an image picked up by the image pickup device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015230572A JP6582921B2 (en) | 2015-11-26 | 2015-11-26 | Robot monitor system |
US15/362,123 US10712566B2 (en) | 2015-11-26 | 2016-11-28 | Information displaying system provided with head-mounted type display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015230572A JP6582921B2 (en) | 2015-11-26 | 2015-11-26 | Robot monitor system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017094466A JP2017094466A (en) | 2017-06-01 |
JP6582921B2 true JP6582921B2 (en) | 2019-10-02 |
Family
ID=58803099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015230572A Active JP6582921B2 (en) | 2015-11-26 | 2015-11-26 | Robot monitor system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6582921B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6863927B2 (en) | 2018-04-25 | 2021-04-21 | ファナック株式会社 | Robot simulation device |
JP7517803B2 (en) * | 2019-10-23 | 2024-07-17 | ファナック株式会社 | ROBOT TEACHING SYSTEM, IMAGE GENERATION METHOD, AND PROGRAM |
EP4074474A4 (en) * | 2019-12-13 | 2024-06-05 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system and method for forming three-dimensional model of workpiece |
CN111062366B (en) * | 2019-12-30 | 2023-12-15 | 中祖建设安装工程有限公司 | Method and system for detecting gesture of personnel in control room |
CN115427201A (en) * | 2020-04-27 | 2022-12-02 | 发那科株式会社 | Display device for industrial machine |
CN112788142B (en) * | 2021-01-18 | 2023-03-28 | 四川中英智慧质量工程技术研究院有限公司 | Intelligent edge Internet of things gateway supporting multi-sensor access |
CN112936269B (en) * | 2021-02-04 | 2022-07-08 | 珠海一微半导体股份有限公司 | Robot control method based on intelligent terminal |
JP2022156506A (en) * | 2021-03-31 | 2022-10-14 | Johnan株式会社 | Robot control system and control device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4850984B2 (en) * | 2009-12-28 | 2012-01-11 | パナソニック株式会社 | Action space presentation device, action space presentation method, and program |
JP2012218120A (en) * | 2011-04-12 | 2012-11-12 | Seiko Epson Corp | Manipulator operation previous notice device, robot system and method for previously noticing manipulator operation |
JP5523386B2 (en) * | 2011-04-15 | 2014-06-18 | 三菱電機株式会社 | Collision avoidance device |
JP6082272B2 (en) * | 2013-02-25 | 2017-02-15 | 東京エレクトロン株式会社 | Support information display method, substrate processing apparatus maintenance support method, support information display control apparatus, substrate processing system, and program |
-
2015
- 2015-11-26 JP JP2015230572A patent/JP6582921B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017094466A (en) | 2017-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6582921B2 (en) | Robot monitor system | |
CN106808496B (en) | Robot safety system | |
JP6589604B2 (en) | Teaching result display system | |
US10712566B2 (en) | Information displaying system provided with head-mounted type display | |
JP5549749B1 (en) | Robot teaching system, robot teaching program generation method and teaching tool | |
JP6645142B2 (en) | Robot safety system | |
JP7058621B2 (en) | Video recorder and head-mounted display | |
JP6824622B2 (en) | Robot controls, control methods and systems | |
JP6598191B2 (en) | Image display system and image display method | |
US20160184998A1 (en) | Robot identification system | |
JP7517803B2 (en) | ROBOT TEACHING SYSTEM, IMAGE GENERATION METHOD, AND PROGRAM | |
JP6746902B2 (en) | Information display system for head-mounted display for workers | |
JP6657858B2 (en) | Robot operation system | |
JP6631203B2 (en) | Virtual fence display system | |
JP6834620B2 (en) | Information display system | |
US12114071B2 (en) | Image processing apparatus, system, image processing method, and image processing program | |
JP2561561B2 (en) | Robot hand remote control system | |
Hietanen et al. | Depth-sensor-projector safety model for human-robot collaboration | |
JP6690203B2 (en) | Robot safety system | |
JP2022122936A (en) | Information display system | |
JP2018156391A (en) | Information display system | |
CN111970502A (en) | Humanoid binocular follow-up virtual reality system suitable for teleoperation of robot | |
Kon et al. | Development of robot teleoperation system in bad viewing condition | |
JPH10291188A (en) | Stereogrpahic image presenting method | |
JP7427115B2 (en) | Anshin Vision Device and Anshin Vision System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6582921 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |