JP6582921B2 - Robot monitor system - Google Patents

Robot monitor system Download PDF

Info

Publication number
JP6582921B2
JP6582921B2 JP2015230572A JP2015230572A JP6582921B2 JP 6582921 B2 JP6582921 B2 JP 6582921B2 JP 2015230572 A JP2015230572 A JP 2015230572A JP 2015230572 A JP2015230572 A JP 2015230572A JP 6582921 B2 JP6582921 B2 JP 6582921B2
Authority
JP
Japan
Prior art keywords
robot
head
image data
image
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015230572A
Other languages
Japanese (ja)
Other versions
JP2017094466A (en
Inventor
喜浩 宮越
喜浩 宮越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2015230572A priority Critical patent/JP6582921B2/en
Priority to US15/362,123 priority patent/US10712566B2/en
Publication of JP2017094466A publication Critical patent/JP2017094466A/en
Application granted granted Critical
Publication of JP6582921B2 publication Critical patent/JP6582921B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボット本体を画像によりモニタするシステムに関する。   The present invention relates to a system for monitoring a robot body by an image.

従来、ロボットと人とが共存する設備では、ロボットコントローラが例えばライトカーテンやレーザセンサ等を用いて人が接近したことを検出すると、ロボットアームの動作を停止させたり安全な低速で動作させることで、人の安全を確保するように制御している。   Conventionally, in a facility where robots and people coexist, when the robot controller detects that a person has approached using, for example, a light curtain or a laser sensor, the robot arm can be stopped or operated at a safe low speed. Control to ensure the safety of people.

特開2010−231713号公報JP 2010-231713 A

しかしながら、作業者がロボットアームに背を向けて作業している状態では、作業者はロボットアームを目視することができない。
本発明は上記事情に鑑みてなされたものであり、その目的は、作業者がロボット本体に背を向けている状態でも、ロボット本体をモニタできるロボットモニタシステムを提供することにある。
However, when the worker is working with his back to the robot arm, the worker cannot visually observe the robot arm.
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a robot monitor system capable of monitoring a robot body even when an operator is turning his back to the robot body.

請求項1記載のロボットモニタシステムによれば、位置情報取得部は、ロボット本体の作業領域内に位置する作業者の位置情報を取得し、方向情報出力部は、前記作業領域内に位置する作業者の頭部正面が向いている方向である頭部方向を検出するための方向情報を出力する。
表示制御部は、前記作業領域内に作業者が位置しており、且つ方向情報より検出される作業者の頭部方向が当該作業者の背面側にロボット本体が位置する方向にあると、前記ロボット本体の画像データを、その時の作業者の位置からロボット本体を視界に入れた際に見えるロボット本体の状態の画像となるように加工して頭部装着型ディスプレイの表示部に投影する。
According to the robot monitor system of the first aspect, the position information acquisition unit acquires the position information of the worker located in the work area of the robot body, and the direction information output unit performs the work located in the work area. The direction information for detecting the head direction, which is the direction in which the person's head front is facing, is output.
Display control unit, the located worker in the work area, and the head direction of the operator detected from the direction information, the robot body on the rear side of the operator is in the direction in which the position, The image data of the robot main body is processed so as to be an image of the state of the robot main body that can be seen when the robot main body is put into view from the position of the operator at that time, and is projected onto the display unit of the head-mounted display.

このように構成すれば、作業者がロボット本体に背を向けていることでロボット本体を直接目視できない状態にあっても、ロボット本体の画像データが、作業者がその位置からロボット本体側に振り返った際に見えるロボット本体の状態で頭部装着型ディスプレイに投影される。したがって、作業者は、自身の背面側に位置するロボット本体の状態を、頭部装着型ディスプレイに表示された画像により確認できるようになり、作業時の安全性を向上させることができる。 According to this structure, even in a state that can not be visually robot directly by the operator is turned against the robot body, images data of the robot body, the work skill that position the robot body It is projected on the head mounted display in the state of the robot body that can be seen when looking back. Therefore, the operator can confirm the state of the robot body located on the back side of the user by the image displayed on the head-mounted display, and can improve safety during work.

請求項2記載のロボットモニタシステムによれば、表示制御部は、ロボット本体を3次元でモデリングした3Dモデル画像データを前記加工の対象とする。このように構成すれば、作業者は、ロボット本体が3Dモデル画像で表示されることで、自身の背面側に位置するロボット本体の状態をよりリアルに視認できる。   According to the robot monitor system of the second aspect, the display control unit uses the 3D model image data obtained by modeling the robot body in three dimensions as the processing target. If comprised in this way, an operator can visually recognize the state of the robot main body located in the back side of himself more realistically by displaying a robot main body by a 3D model image.

請求項3記載のロボットモニタシステムによれば、表示制御部は、ロボット本体の姿勢情報を取得すると、頭部装着型ディスプレイの表示部に投影する画像データを、その時点の姿勢情報に応じた姿勢の画像データに加工する。このように構成すれば、作業者は、表示部に表示された画像によりその時点のロボット本体の姿勢も認識できる。したがって、安全性をより向上させることができる。   According to the robot monitor system of claim 3, when the display control unit acquires the posture information of the robot body, the image data projected on the display unit of the head-mounted display is displayed in a posture corresponding to the posture information at that time. To image data. If comprised in this way, the operator can also recognize the attitude | position of the robot main body at the time from the image displayed on the display part. Therefore, safety can be further improved.

請求項4記載のロボットモニタシステムによれば、表示制御部は、位置情報よりロボット本体と前記作業者との距離を求めると、その距離に応じて頭部装着型ディスプレイの表示部に投影する画像データの大きさを変化させる。このように構成すれば、作業者は、頭部装着型ディスプレイに表示された画像によって、その時点のロボット本体との距離感も認識できるようになり、安全性を更に向上させることができる。   According to the robot monitor system of claim 4, when the display control unit obtains the distance between the robot body and the worker from the position information, the image projected on the display unit of the head-mounted display according to the distance. Change the data size. With this configuration, the operator can recognize the sense of distance from the robot body at that time from the image displayed on the head-mounted display, and can further improve safety.

請求項5記載のロボットモニタシステムによれば、方向情報出力部に頭部装着型ディスプレイに配置される撮像器を備え、その撮像器により撮像された画像を処理して作業者の頭部方向を検出する。すなわち、頭部装着型ディスプレイに配置した撮像器によって、作業者の頭部が正面を向いている状態の画像を撮像すれば、その画像により作業者の視界にロボット本体が入っているか否かが分かる。したがって、撮像器により撮像された画像を処理すれば、作業者の頭部方向を容易に検出できる。   According to the robot monitor system of the fifth aspect, the direction information output unit includes the image pickup device arranged on the head-mounted display, and the image picked up by the image pickup device is processed to determine the head direction of the operator. To detect. That is, if an image with the head mounted on the head-mounted display is used to capture an image with the operator's head facing the front, it is determined whether or not the robot body is in the operator's field of view based on the image. I understand. Therefore, if the image picked up by the image pickup device is processed, the head direction of the operator can be easily detected.

一実施形態であり、ロボットモニタシステムの構成を概略的に示す機能ブロック図1 is a functional block diagram schematically showing a configuration of a robot monitor system according to an embodiment カメラによる撮像領域を示す側面図Side view showing the imaging area of the camera カメラによる撮像領域を示す平面図Plan view showing imaging area by camera 主に眼鏡型モニタデバイス側の処理内容を示すフローチャートFlowchart mainly showing processing contents on the eyeglass-type monitor device side 作業者が眼鏡型モニタの表示部を介して見る視界の一例を示す図The figure which shows an example of the visual field which an operator sees via the display part of a spectacles type monitor

以下、一実施形態について説明する。図1は、本実施形態のロボットモニタシステムの構成を概略的に示す機能ブロック図である。このシステム1は、例えば組立用のロボットアーム2,このロボットアーム2を制御するロボットコントローラ3,カメラ4,眼鏡型モニタ5,付属カメラ6及び眼鏡型モニタデバイス7より構成されている。   Hereinafter, an embodiment will be described. FIG. 1 is a functional block diagram schematically showing the configuration of the robot monitor system of the present embodiment. The system 1 includes, for example, a robot arm for assembly 2, a robot controller 3 for controlling the robot arm 2, a camera 4, a spectacle-type monitor 5, an attached camera 6, and a spectacle-type monitor device 7.

ロボット本体であるロボットアーム2は、例えば6軸の垂直多関節型ロボットとして構成されている。一般的な構成につき詳しい説明は省略するが、このロボットアーム2は、夫々サーボモータにより駆動される6軸のアームを有し、第6軸アームの先端部に、例えばパレット内に収容されているワークを把持するためのハンド等を備えている。ロボットアーム2は、前記ロボットコントローラ3に図示しない接続ケーブルを介して接続され、前記各軸のサーボモータがこのロボットコントローラ3により制御される。   The robot arm 2 which is a robot body is configured as, for example, a 6-axis vertical articulated robot. Although a detailed description of a general configuration is omitted, the robot arm 2 has 6-axis arms each driven by a servo motor, and is housed in, for example, a pallet at the tip of the sixth-axis arm. A hand for gripping a workpiece is provided. The robot arm 2 is connected to the robot controller 3 via a connection cable (not shown), and the servo motors for the respective axes are controlled by the robot controller 3.

表示制御部及びロボット側制御装置に対応するロボットコントローラ3は、矩形箱状をなすフレーム内に、何れも図示しない制御回路やサーボ制御部、電源装置等を組込んで構成されている。制御回路はマイコンを主体として構成され、予め記憶された動作プログラムや、図示しないティーチングペンダント等により設定された教示データ、各種パラメータ等に従い、サーボ制御部を介してロボットアーム2の各軸サーボモータを制御し、ロボットアーム2によるワークの組付け作業等を自動で実行させる。   The robot controller 3 corresponding to the display control unit and the robot-side control device is configured by incorporating a control circuit, a servo control unit, a power supply device, and the like (not shown) in a rectangular box-shaped frame. The control circuit is composed mainly of a microcomputer, and controls each axis servo motor of the robot arm 2 via a servo control unit according to a pre-stored operation program, teaching data set by a teaching pendant (not shown), various parameters, etc. To control the robot arm 2 to automatically execute the work assembly work.

また、ロボットコントローラ3には、上記の制御を行うため、各軸に配置されている図示しないエンコーダからのエンコーダ値が入力されている。更に、ロボットコントローラ3は、ロボットアーム2の形態を3次元的にモデリングしたデータである3Dモデル画像データを内部のメモリに記憶して保持している。   Further, in order to perform the above-described control, the robot controller 3 receives encoder values from encoders (not shown) arranged on the respective axes. Furthermore, the robot controller 3 stores and holds 3D model image data, which is data obtained by three-dimensionally modeling the robot arm 2, in an internal memory.

カメラ4は、その撮像領域が少なくともロボットアーム2の作業領域を含むように、例えば図2に示すように、ロボットアーム2の情報から前記作業領域を俯瞰するような位置に設置されている。カメラ4により撮像された画像データは、ロボットコントローラ3に入力される。カメラ4は位置情報取得部に相当し、図3に平面図を示すように、カメラ4の撮像領域内に作業者8が位置している際には、ロボットコントローラ3が入力される画像データを処理することで、ロボットアーム2の位置を原点として、作業者8の位置を示す情報である2次元座標値(x,y)を取得する。   For example, as shown in FIG. 2, the camera 4 is installed at a position overlooking the work area from the information of the robot arm 2 so that the imaging area includes at least the work area of the robot arm 2. Image data captured by the camera 4 is input to the robot controller 3. The camera 4 corresponds to a position information acquisition unit. As shown in a plan view in FIG. 3, when the operator 8 is located in the imaging region of the camera 4, image data input by the robot controller 3 is input. By performing the processing, the two-dimensional coordinate value (x, y) that is information indicating the position of the worker 8 is acquired with the position of the robot arm 2 as the origin.

頭部装着型ディスプレイである眼鏡型モニタ5は、図1に示すように、作業者8が頭部に眼鏡として装着するもので、眼鏡のレンズ部分に相当する透明な表示部5Dに、図示しない投影部を介して画像を投影可能な所謂透過型のディスプレイである。眼鏡型モニタ5のフレームの一側部には、方向情報出力部及び撮像器である付属カメラ6が配置されており、作業者7が眼鏡型モニタ5を頭部に装着した状態で、作業者8の頭部正面が向いている方向の画像を撮像する。カメラ4及び6は、例えばCCD(Charge Coupled Device)やCMOSイメージセンサなどで構成されている。   As shown in FIG. 1, an eyeglass-type monitor 5 which is a head-mounted display is worn by an operator 8 as eyeglasses on a head, and is not shown on a transparent display portion 5D corresponding to a lens portion of the eyeglasses. This is a so-called transmissive display capable of projecting an image via a projection unit. A direction information output unit and an attached camera 6 as an image pickup device are arranged on one side of the frame of the glasses-type monitor 5, and the operator 7 wears the glasses-type monitor 5 on the head. The image of the direction which the head of 8 heads is facing is imaged. The cameras 4 and 6 are constituted by, for example, a CCD (Charge Coupled Device), a CMOS image sensor, or the like.

眼鏡型モニタ5は、表示制御部及びディスプレイ側制御装置である眼鏡型モニタデバイス7に無線又は有線で接続されている。眼鏡型モニタデバイス7は、マイクロコンピュータ等を内蔵して構成され、眼鏡型モニタ5の表示部5Dに投影する画像データを送信したり、付属カメラ6により撮像された画像データを受信する。また、眼鏡型モニタデバイス7は、ロボットコントローラ3と有線又は無線通信が可能となっており、ロボットコントローラ3より作業者8の位置情報を含む作業領域の監視情報や、姿勢情報であるロボットアーム2の各軸エンコーダ値,及び上述した3Dモデル画像データを取得する。   The eyeglass-type monitor 5 is connected to the eyeglass-type monitor device 7 that is a display control unit and a display-side control device wirelessly or by wire. The eyeglass-type monitor device 7 includes a microcomputer and the like, and transmits image data to be projected on the display unit 5D of the eyeglass-type monitor 5 and receives image data captured by the attached camera 6. Further, the eyeglass-type monitor device 7 can be wired or wirelessly communicated with the robot controller 3, and the robot controller 2 receives work area monitoring information including position information of the worker 8 from the robot controller 3 and posture information. Each axis encoder value and the 3D model image data described above are acquired.

次に、本実施形態の作用について図4及び図5も参照して説明する。図4は、主に眼鏡型モニタデバイス7側の処理内容を示すフローチャートである。眼鏡型モニタデバイス7は、先ずロボットコントローラ3との通信を開始して接続すると(S1)、ロボットアーム2の3Dモデル画像データを取得する(S2)。以降のステップS3〜S14の処理は無限ループとなっている。   Next, the effect | action of this embodiment is demonstrated with reference to FIG.4 and FIG.5. FIG. 4 is a flowchart mainly showing processing contents on the eyeglass-type monitor device 7 side. First, when the eyeglass-type monitor device 7 starts communication with the robot controller 3 and connects (S1), it acquires 3D model image data of the robot arm 2 (S2). The subsequent steps S3 to S14 are an infinite loop.

ステップS4において領域監視情報を取得すると、ロボットアーム2の作業領域内に作業者8が存在するか否かを判断する(S5)。作業者8が存在しておらず「無」と判断するとステップS3に戻る。作業者8が存在しており「有」と判断すると、付属カメラ6より入力される画像データを処理する画像認識を行う(S6)。ここで、前記画像データにロボットアーム2を捉えた画像が含まれており、続くステップS7で「有」と判断した場合は、作業者8の頭部正面は概ねロボットアーム2の方向を向いていると推定されるので「正面判定」とする(S8)。この場合は特段の処理をすることなく、ステップS14に移行する。   When the area monitoring information is acquired in step S4, it is determined whether or not the worker 8 exists in the work area of the robot arm 2 (S5). If it is determined that the worker 8 does not exist and is “none”, the process returns to step S3. If it is determined that the worker 8 is present and “present”, image recognition is performed to process the image data input from the attached camera 6 (S6). Here, when the image data includes an image capturing the robot arm 2 and it is determined “Yes” in the subsequent step S7, the front of the head of the worker 8 is generally directed toward the robot arm 2. Since it is estimated that the vehicle is present, “front determination” is set (S8). In this case, the process proceeds to step S14 without performing special processing.

一方、ステップS7において、前記画像データにロボットアーム2を捉えた画像が含まれておらず「無」と判断すると、作業者8の頭部正面は概ねロボットアーム2とは反対の方向を向いていると推定されるので「背面判定」とする(S9)。そして、以降のようにロボットアーム2の3Dモデル画像データを加工、眼鏡型モニタ5の表示部5Dに投影する画像データを生成する。   On the other hand, if it is determined in step S7 that the image data does not include an image of the robot arm 2 and “no” is present, the front of the head of the operator 8 is generally directed in the opposite direction to the robot arm 2. Since it is estimated that there is a back surface, it is determined as “back surface determination” (S9). Then, the 3D model image data of the robot arm 2 is processed as described below, and image data to be projected on the display unit 5D of the glasses-type monitor 5 is generated.

先ず、作業者8が、現在の位置からロボットアーム2を見ようとした場合に、作業者8に見えるロボットアーム2の方向を算出する(S10)。次に、ロボットコントローラ3より各軸のエンコーダ値を取得すると(S11)、3Dモデル画像データにそのエンコーダ値を反映させて、ロボットアーム2が現在とっている姿勢を再現させる。またこの時、作業者8の位置からロボットアーム2の原点位置までの距離が分かるので、その距離に応じて表示させる画像データの大きさを変化させる(S12)。ここでは言うまでもなく、距離が短くなるほど画像データが大きく表示されるように調整する。画像データの大きさを変化させる段階は必ずしも距離の分解能に比例させる必要はなく、例えば距離の長短を複数段階に区切る等して、その段階に応じて変化させても良い。   First, when the worker 8 tries to see the robot arm 2 from the current position, the direction of the robot arm 2 that is visible to the worker 8 is calculated (S10). Next, when the encoder value of each axis is acquired from the robot controller 3 (S11), the encoder value is reflected in the 3D model image data to reproduce the posture that the robot arm 2 currently takes. At this time, since the distance from the position of the operator 8 to the origin position of the robot arm 2 is known, the size of the image data to be displayed is changed according to the distance (S12). Needless to say, adjustment is made so that the image data is displayed larger as the distance becomes shorter. The step of changing the size of the image data is not necessarily proportional to the resolution of the distance. For example, the length of the distance may be divided into a plurality of steps, and may be changed according to the step.

以上のようにして画像データを生成すると、当該データを眼鏡型モニタ5に送信して表示部5Dに表示させる(S13)。この場合、作業者8が表示部5Dを介して見る視界には、例えば図5に示すように、表示部5Dを透過して見える実景を背景として、表示部5Dの一領域部分に表示されたロボットアーム2の3D画像データが重畳された状態となる。この時、3D画像データを見易くするため、ロボットアーム2の周辺の一定領域が非透明となるように塗り潰すように画像データを生成する。   When the image data is generated as described above, the data is transmitted to the glasses-type monitor 5 and displayed on the display unit 5D (S13). In this case, the field of view that the operator 8 sees through the display unit 5D is displayed in one area portion of the display unit 5D with a background that can be seen through the display unit 5D as shown in FIG. 5, for example. The 3D image data of the robot arm 2 is superposed. At this time, in order to make the 3D image data easy to see, the image data is generated so that a certain area around the robot arm 2 is filled with transparency.

以上のように本実施形態によれば、眼鏡型モニタデバイス7は、作業者8が頭部に装着している眼鏡型モニタ5の表示部5Dに投影する映像信号,画像データを送信する。カメラ4は、ロボットアーム2の作業領域内に位置する作業者8の位置情報を取得し、付属カメラ6は、前記作業領域内に位置する作業者8の頭部正面が向いている方向である頭部方向を検出するための方向情報としての画像データを出力する。ロボットコントローラ3は、ロボットアーム2の動作を制御すると共に、ロボットアーム2を3次元でモデリングした3Dモデル画像データを保持する。   As described above, according to the present embodiment, the eyeglass-type monitor device 7 transmits the video signal and the image data to be projected on the display unit 5D of the eyeglass-type monitor 5 worn by the operator 8 on the head. The camera 4 acquires position information of the worker 8 located in the work area of the robot arm 2, and the attached camera 6 is a direction in which the front of the head of the worker 8 located in the work area is facing. Image data is output as direction information for detecting the head direction. The robot controller 3 controls the operation of the robot arm 2 and holds 3D model image data obtained by modeling the robot arm 2 in three dimensions.

眼鏡型モニタデバイス7は、ロボットコントローラ3より3Dモデル画像データを取得し、前記作業領域内に作業者8が位置しており、且つその作業者8の頭部方向が当該作業者8の視界にロボットアーム2が入らない方向にあると、3Dモデル画像データをその時の作業者8の位置からロボットアーム2を視界に入れた際に、ロボットアーム2が見える状態の画像となるように加工して眼鏡型モニタ5の表示部5Dに表示させる。   The eyeglass-type monitor device 7 acquires 3D model image data from the robot controller 3, the worker 8 is located in the work area, and the head direction of the worker 8 is in the field of view of the worker 8. If the robot arm 2 is not in the direction, the 3D model image data is processed so that the robot arm 2 can be seen when the robot arm 2 is viewed from the position of the operator 8 at that time. It is displayed on the display unit 5D of the glasses-type monitor 5.

このように構成すれば、作業者8がロボットアーム2に背を向けておりロボットアーム2を直接目視できない状態にあっても、ロボットアーム2の3Dモデル画像データが、作業者8がその位置からロボットアーム2側に振り返った際に見えるロボットアーム2の状態で眼鏡型モニタ5に投影される。したがって、作業者8は、自身の背面側に位置するロボットアーム2の状態を、眼鏡型モニタ5に表示された3D画像によってリアルな状態で確認できるようになり、作業時の安全性を向上させることができる。   With this configuration, even if the operator 8 is turned to the robot arm 2 and cannot see the robot arm 2 directly, the 3D model image data of the robot arm 2 is obtained from the position of the operator 8. The image is projected onto the glasses-type monitor 5 in the state of the robot arm 2 that can be seen when looking back to the robot arm 2 side. Therefore, the worker 8 can check the state of the robot arm 2 positioned on the back side of the worker 8 in a realistic state by the 3D image displayed on the glasses-type monitor 5, thereby improving safety during work. be able to.

また、眼鏡型モニタデバイス7は、ロボットコントローラ3よりロボットアーム2のエンコーダ値を取得し、眼鏡型モニタ5に投影する3Dモデル画像データを、その時点のエンコーダ値に応じた姿勢の画像データに加工する。このように構成すれば、作業者8は、眼鏡型モニタ5に表示された画像によりその時点のロボットアーム2の姿勢も認識できる。したがって、安全性をより向上させることができる。   The eyeglass-type monitor device 7 acquires the encoder value of the robot arm 2 from the robot controller 3, and processes the 3D model image data projected on the eyeglass-type monitor 5 into image data with a posture corresponding to the encoder value at that time. To do. If comprised in this way, the operator 8 can also recognize the attitude | position of the robot arm 2 at the time from the image displayed on the spectacles type monitor 5. FIG. Therefore, safety can be further improved.

更に、眼鏡型モニタデバイス7は、位置情報よりロボットアーム2と作業者8との距離を求めると、その距離に応じて眼鏡型モニタ5に投影する3Dモデル画像データの大きさを変化させる。このように構成すれば、作業者8は、眼鏡型モニタ5に表示された画像によって、その時点のロボットアーム2との距離感も認識できるようになり、安全性を更に向上させることができる。   Further, when the distance between the robot arm 2 and the operator 8 is obtained from the position information, the glasses-type monitor device 7 changes the size of the 3D model image data projected on the glasses-type monitor 5 according to the distance. If comprised in this way, the operator 8 can also recognize the distance feeling with the robot arm 2 at the time by the image displayed on the spectacles type monitor 5, and can improve safety | security further.

加えて、眼鏡型モニタデバイス7は、眼鏡型モニタ5に配置される付属カメラ6により撮像された画像を処理して作業者8の頭部方向を検出する。すなわち、付属カメラ6によって作業者8の頭部が正面を向いている状態の画像を撮像すれば、その画像により作業者8の視界にロボットアーム2が入っているか否かが分かる。そして、眼鏡型モニタデバイス7が撮像された画像を処理すれば、作業者8の頭部方向を容易に検出できる。   In addition, the eyeglass-type monitor device 7 detects the head direction of the operator 8 by processing an image captured by the attached camera 6 arranged on the eyeglass-type monitor 5. That is, if an image with the head of the worker 8 facing the front is taken by the attached camera 6, it can be seen from the image whether the robot arm 2 is in the field of view of the worker 8. And if the spectacles type monitor device 7 processes the imaged image, the head direction of the worker 8 can be easily detected.

本発明は上記した、又は図面に記載した実施形態にのみ限定されるものではなく、以下のような変形又は拡張が可能である。
ロボット本体の画像データは、3Dモデル画像を生成するものに限らず、2次元的な画像を生成するものでも良い。
ロボット本体はロボットアーム2に限ることなく、その他例えば水平4軸構成のロボットアーム,自走式のロボットや人型のロボットでも良い。
位置情報取得部に、レーザセンサや赤外センサを用いても良い。
The present invention is not limited to the embodiments described above or shown in the drawings, and the following modifications or expansions are possible.
The image data of the robot body is not limited to the one that generates a 3D model image, but may be one that generates a two-dimensional image.
The robot body is not limited to the robot arm 2, but may be a robot arm having a horizontal 4-axis configuration, a self-propelled robot, or a humanoid robot.
A laser sensor or an infrared sensor may be used for the position information acquisition unit.

カメラ4により撮像される作業者の画像を処理すれば、作業者の頭部が向いている方向を検出できる。したがって、カメラ4に方向情報出力部としての機能を持たせても良いし、カメラ4とは別個のカメラを方向情報出力部として用いても良い。また、これらの画像データを直接、眼鏡型モニタデバイス7に入力しても良い。
表示部5Dに表示させる3Dモデル画像データには、必ずしもロボットアーム2の姿勢を反映させる必要はない。また、画像の大きさを距離に応じて変化させる必要もなく、常に一定の大きさで表示させても良い。
If the worker's image captured by the camera 4 is processed, the direction in which the worker's head is facing can be detected. Therefore, the camera 4 may have a function as a direction information output unit, or a camera separate from the camera 4 may be used as the direction information output unit. Further, these image data may be input directly to the eyeglass-type monitor device 7.
It is not always necessary to reflect the posture of the robot arm 2 in the 3D model image data displayed on the display unit 5D. Further, it is not necessary to change the size of the image according to the distance, and the image may always be displayed at a constant size.

ディスプレイ側制御装置とロボット側制御装置とを一体の制御装置として構成しても良い。この場合の「通信」は、例えばバスを介して制御装置の内部で行えば良い。
表示制御部としての機能は、必ずしもディスプレイ側制御装置とロボット側制御装置とに振り分ける必要はなく、全ての機能を何れか一方の制御装置に持たせても良い。或いは、全ての機能を独立した第3の制御装置に持たせても良い。
頭部装着型ディスプレイは、必ずしも眼鏡型モニタ5である必要はなく、作業者が頭部に装着する表示部に画像を投影可能に構成されるものであれば良い。
The display-side control device and the robot-side control device may be configured as an integrated control device. The “communication” in this case may be performed inside the control device via a bus, for example.
It is not always necessary to distribute the functions as the display control unit between the display-side control device and the robot-side control device, and all of the functions may be provided in one of the control devices. Alternatively, all functions may be provided in an independent third control device.
The head-mounted display is not necessarily the eyeglass-type monitor 5, and may be any display that can project an image on a display unit worn by the operator on the head.

図面中、1はロボットモニタシステム、2はロボットアーム、3はロボットコントローラ、4はカメラ、5は眼鏡型モニタ、6は付属カメラ、7は眼鏡型モニタデバイス、8は作業者を示す。   In the drawings, 1 is a robot monitor system, 2 is a robot arm, 3 is a robot controller, 4 is a camera, 5 is an eyeglass monitor, 6 is an attached camera, 7 is an eyeglass monitor device, and 8 is an operator.

Claims (5)

作業者が頭部に装着する表示部に、画像を投影可能に構成される頭部装着型ディスプレイと、
ロボット本体の作業領域内に位置する作業者の位置情報を取得する位置情報取得部と、
前記作業領域内に位置する作業者の頭部正面が向いている方向である頭部方向を検出するための方向情報を出力する方向情報出力部と、
前記作業領域内に作業者が位置しており、且つ前記方向情報より検出される前記作業者の頭部方向が当該作業者の背面側に前記ロボット本体が位置する方向にあると、前記ロボット本体の画像データを、前記作業者の位置から前記ロボット本体を視界に入れた際に見える状態の画像となるように加工して前記頭部装着型ディスプレイの表示部に投影する表示制御部とを備えるロボットモニタシステム。
A head-mounted display configured to be able to project an image on a display unit worn by the operator on the head; and
A position information acquisition unit for acquiring position information of a worker located in the work area of the robot body;
A direction information output unit that outputs direction information for detecting a head direction that is a direction in which the front of the head of the worker located in the work area is facing;
Located worker in the work area, and the head direction of the operator detected from the direction information, when the robot body on the rear side of the operator is in a direction to position the robot A display control unit that processes the image data of the main body so as to be an image that can be seen when the robot main body is put into view from the position of the operator and projects the image data on the display unit of the head-mounted display; Robot monitor system equipped.
前記表示制御部は、前記ロボット本体を3次元でモデリングした3Dモデル画像データを、前記加工の対象とする請求項1記載のロボットモニタシステム。   The robot monitor system according to claim 1, wherein the display control unit uses 3D model image data obtained by modeling the robot body in three dimensions as the processing target. 前記表示制御部は、前記ロボット本体の姿勢情報を取得し、
前記頭部装着型ディスプレイの表示部に投影する画像データを、その時点の姿勢情報に応じた姿勢の画像データに加工する請求項1又は2記載のロボットモニタシステム。
The display control unit acquires posture information of the robot body,
The robot monitor system according to claim 1 or 2, wherein the image data projected on the display unit of the head-mounted display is processed into image data having a posture corresponding to posture information at that time.
前記表示制御部は、前記位置情報より前記ロボット本体と前記作業者との距離を求め、前記距離に応じて前記表示部に投影する画像データの大きさを変化させる請求項1から3の何れか一項に記載のロボットモニタシステム。   4. The display control unit according to claim 1, wherein the display control unit obtains a distance between the robot body and the worker from the position information, and changes a size of image data projected on the display unit according to the distance. The robot monitor system according to one item. 前記方向情報出力部は、前記頭部装着型ディスプレイに配置される撮像器を有し、
前記撮像器により撮像された画像を処理することで前記作業者の頭部方向を検出する請求項1から4の何れか一項に記載のロボットモニタシステム。
The direction information output unit has an imager disposed on the head-mounted display,
The robot monitor system according to claim 1, wherein the head direction of the worker is detected by processing an image picked up by the image pickup device.
JP2015230572A 2015-11-26 2015-11-26 Robot monitor system Active JP6582921B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015230572A JP6582921B2 (en) 2015-11-26 2015-11-26 Robot monitor system
US15/362,123 US10712566B2 (en) 2015-11-26 2016-11-28 Information displaying system provided with head-mounted type display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015230572A JP6582921B2 (en) 2015-11-26 2015-11-26 Robot monitor system

Publications (2)

Publication Number Publication Date
JP2017094466A JP2017094466A (en) 2017-06-01
JP6582921B2 true JP6582921B2 (en) 2019-10-02

Family

ID=58803099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015230572A Active JP6582921B2 (en) 2015-11-26 2015-11-26 Robot monitor system

Country Status (1)

Country Link
JP (1) JP6582921B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6863927B2 (en) 2018-04-25 2021-04-21 ファナック株式会社 Robot simulation device
JP7517803B2 (en) * 2019-10-23 2024-07-17 ファナック株式会社 ROBOT TEACHING SYSTEM, IMAGE GENERATION METHOD, AND PROGRAM
EP4074474A4 (en) * 2019-12-13 2024-06-05 Kawasaki Jukogyo Kabushiki Kaisha Robot system and method for forming three-dimensional model of workpiece
CN111062366B (en) * 2019-12-30 2023-12-15 中祖建设安装工程有限公司 Method and system for detecting gesture of personnel in control room
CN115427201A (en) * 2020-04-27 2022-12-02 发那科株式会社 Display device for industrial machine
CN112788142B (en) * 2021-01-18 2023-03-28 四川中英智慧质量工程技术研究院有限公司 Intelligent edge Internet of things gateway supporting multi-sensor access
CN112936269B (en) * 2021-02-04 2022-07-08 珠海一微半导体股份有限公司 Robot control method based on intelligent terminal
JP2022156506A (en) * 2021-03-31 2022-10-14 Johnan株式会社 Robot control system and control device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4850984B2 (en) * 2009-12-28 2012-01-11 パナソニック株式会社 Action space presentation device, action space presentation method, and program
JP2012218120A (en) * 2011-04-12 2012-11-12 Seiko Epson Corp Manipulator operation previous notice device, robot system and method for previously noticing manipulator operation
JP5523386B2 (en) * 2011-04-15 2014-06-18 三菱電機株式会社 Collision avoidance device
JP6082272B2 (en) * 2013-02-25 2017-02-15 東京エレクトロン株式会社 Support information display method, substrate processing apparatus maintenance support method, support information display control apparatus, substrate processing system, and program

Also Published As

Publication number Publication date
JP2017094466A (en) 2017-06-01

Similar Documents

Publication Publication Date Title
JP6582921B2 (en) Robot monitor system
CN106808496B (en) Robot safety system
JP6589604B2 (en) Teaching result display system
US10712566B2 (en) Information displaying system provided with head-mounted type display
JP5549749B1 (en) Robot teaching system, robot teaching program generation method and teaching tool
JP6645142B2 (en) Robot safety system
JP7058621B2 (en) Video recorder and head-mounted display
JP6824622B2 (en) Robot controls, control methods and systems
JP6598191B2 (en) Image display system and image display method
US20160184998A1 (en) Robot identification system
JP7517803B2 (en) ROBOT TEACHING SYSTEM, IMAGE GENERATION METHOD, AND PROGRAM
JP6746902B2 (en) Information display system for head-mounted display for workers
JP6657858B2 (en) Robot operation system
JP6631203B2 (en) Virtual fence display system
JP6834620B2 (en) Information display system
US12114071B2 (en) Image processing apparatus, system, image processing method, and image processing program
JP2561561B2 (en) Robot hand remote control system
Hietanen et al. Depth-sensor-projector safety model for human-robot collaboration
JP6690203B2 (en) Robot safety system
JP2022122936A (en) Information display system
JP2018156391A (en) Information display system
CN111970502A (en) Humanoid binocular follow-up virtual reality system suitable for teleoperation of robot
Kon et al. Development of robot teleoperation system in bad viewing condition
JPH10291188A (en) Stereogrpahic image presenting method
JP7427115B2 (en) Anshin Vision Device and Anshin Vision System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R150 Certificate of patent or registration of utility model

Ref document number: 6582921

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250