JPWO2020044491A1 - robot - Google Patents

robot Download PDF

Info

Publication number
JPWO2020044491A1
JPWO2020044491A1 JP2020539946A JP2020539946A JPWO2020044491A1 JP WO2020044491 A1 JPWO2020044491 A1 JP WO2020044491A1 JP 2020539946 A JP2020539946 A JP 2020539946A JP 2020539946 A JP2020539946 A JP 2020539946A JP WO2020044491 A1 JPWO2020044491 A1 JP WO2020044491A1
Authority
JP
Japan
Prior art keywords
control unit
camera
robot
image
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020539946A
Other languages
Japanese (ja)
Other versions
JP7055883B2 (en
Inventor
貴明 重光
貴明 重光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Techshare
Original Assignee
Techshare
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Techshare filed Critical Techshare
Publication of JPWO2020044491A1 publication Critical patent/JPWO2020044491A1/en
Application granted granted Critical
Publication of JP7055883B2 publication Critical patent/JP7055883B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

ロボット(1)は、設置面(5)に接する面を有する台座(11)と、前記台座(11)に垂直に取り付けられ、垂直軸回りを回転可能な支柱(12)と、前記支柱(12)に接続され、単数または複数の関節(21,22,23)により向きを変えることを可能とするアーム(15,16)と、前記アームの先端に接続され、前記アームとの向きを変えることを可能とする先端部(31)と、前記支柱に対して固定された位置に設けられ前記台座自身と前記台座の周辺の前記設置面とを撮影可能とした複数の第1カメラ(14L,14R)と、前記複数の第1カメラから第1画像を取得し、前記第1画像を座標変換することによって部分平面図画像を生成し、複数の前記部分平面図の位置合わせを行って合成することによって前記台座の画像を含んだ平面図画像を生成するとともに、前記平面図画像に基づいて前記先端部を所定の位置に移動させるために前記アームの向きを変えるよう制御する制御部(40)と、を備える。The robot (1) has a pedestal (11) having a surface in contact with the installation surface (5), a support column (12) vertically attached to the pedestal (11) and rotatable around a vertical axis, and the support column (12). ), And an arm (15, 16) connected to the tip of the arm and capable of changing the direction by a single or a plurality of joints (21, 22, 23), and changing the direction with the arm. A plurality of first cameras (14L, 14R) provided at a position fixed to the support column and capable of photographing the pedestal itself and the installation surface around the pedestal. ) And the first image is acquired from the plurality of first cameras, the partial plan view image is generated by coordinate-transforming the first image, and the plurality of the partial plan views are aligned and combined. A control unit (40) that generates a plan view image including an image of the pedestal and controls the direction of the arm in order to move the tip portion to a predetermined position based on the plan view image. , Equipped with.

Description

本発明は、ロボットの動作の自動化を実現するため、画像を取得し処理する技術に関するものである。 The present invention relates to a technique for acquiring and processing an image in order to realize automation of robot movement.

産業用のロボット(アームを備え、作業場所に設置されて通常は自ら移動しないもの。以降「ロボット」とはこの定義のものを言うこととする)を使い、工場や実験室での作業の自動化が進んでいる。ロボットが作業する際には、作業対象やその周辺の情報を取得する必要がある。従来より、カメラを用いて画像を取得し、その画像を処理することで、作業対象やその周辺の障害物などの形状や位置などの情報を得て、所望の作業を実施するためのロボットの動作を計算する方法が知られている。 Automation of work in factories and laboratories using industrial robots (equipped with arms, installed in the work area and usually not moving by themselves; hereinafter, "robot" is defined by this definition). Is progressing. When a robot works, it is necessary to acquire information on the work target and its surroundings. Conventionally, a robot for acquiring an image using a camera and processing the image to obtain information such as the shape and position of an obstacle such as a work target and its surroundings and perform a desired work. There are known ways to calculate behavior.

特許文献1(図1等)に記載されているシステムでは、固定カメラ5が、ロボットの作業対象の場所であるトレイ7の上空に固定された状態で設置され、トレイ7を撮影する。固定カメラ座標系Fは、既知の座標系である。そして、固定カメラ5で撮影された画像を用いて、作業対象の位置ずれ量を取得し、その位置ずれ量がロボットの制御に用いられている。 In the system described in Patent Document 1 (FIG. 1 and the like), the fixed camera 5 is installed in a state of being fixed above the tray 7 which is the place where the robot works, and the tray 7 is photographed. The fixed camera coordinate system F is a known coordinate system. Then, the image taken by the fixed camera 5 is used to acquire the amount of misalignment of the work object, and the amount of misalignment is used for controlling the robot.

特許文献2に記載されている技術では、ロボットが電線群を加工するために、2次元ビジョンシステム60と3次元ビジョンシステム70という2系統の撮像手段を有している。そして、図3(フローチャート)等によると、まず2次元ビジョンシステム60を用いて電線群全体を含む範囲の画像である第1画像データD1を取得し、次に、第1画像データD1に基づいて決定される領域(R2)を3次元ビジョンシステム70で撮像し第2画像データD2を得ている。そして、第2画像データD2に基づいて、加工対象の位置等を認識し、加工ロボットに対する指示が与えられている。 In the technique described in Patent Document 2, the robot has two systems of imaging means, a two-dimensional vision system 60 and a three-dimensional vision system 70, for processing an electric wire group. Then, according to FIG. 3 (flow chart) and the like, first, the two-dimensional vision system 60 is used to acquire the first image data D1 which is an image of the range including the entire electric wire group, and then based on the first image data D1. The determined region (R2) is imaged by the three-dimensional vision system 70 to obtain the second image data D2. Then, based on the second image data D2, the position of the processing target and the like are recognized, and an instruction to the processing robot is given.

特許文献3に記載されている技術では、物品を仕分けするためのロボット24の先端部分に、レーザセンサ26とビジョンセンサ27とが設けられている(図5等)。そして、図12(フローチャート)等によると、まずレーザセンサ26を用いて荷物の上面までの距離を取得し、上面が最も高い位置にある荷物を特定している。そして、その後、特定された荷物の外形情報等を、ビジョンセンサ27を用いて取得している。 In the technique described in Patent Document 3, a laser sensor 26 and a vision sensor 27 are provided at the tip of the robot 24 for sorting articles (FIG. 5 and the like). Then, according to FIG. 12 (flow chart) and the like, first, the distance to the upper surface of the load is acquired by using the laser sensor 26, and the load whose upper surface is at the highest position is specified. Then, after that, the external shape information and the like of the specified baggage are acquired by using the vision sensor 27.

特許文献4に記載されている技術では、固定したカメラを用いてマーク物体を撮影し、このマーク物体を基に、今までの座標系から新しく設定した座標系への位置データ較正を行っている。 In the technique described in Patent Document 4, a mark object is photographed using a fixed camera, and the position data is calibrated from the existing coordinate system to the newly set coordinate system based on the mark object. ..

上記の特許文献1や特許文献4に記載されている技術では、ロボットの作業環境において固定されたカメラで撮影した画像により、作業対象の位置情報を取得している。
特許文献2に記載されている技術においても、第1段階において第1画像データD1を取得するためのカメラ62は、カメラ支持部材64によって支持され、電線群が配設されることが予想される全ての領域である領域R1を撮像可能に配設されている(段落0036)。
特許文献3に記載されている技術では、レーザセンサ26およびビジョンセンサ27の両方は、ロボットの先端部分に設けられており、アームの動きに伴って位置可変である。
In the techniques described in Patent Document 1 and Patent Document 4, the position information of the work target is acquired from the image taken by the fixed camera in the work environment of the robot.
Also in the technique described in Patent Document 2, it is expected that the camera 62 for acquiring the first image data D1 in the first stage is supported by the camera support member 64, and the electric wire group is arranged. The region R1 which is the entire region is arranged so as to be able to image (paragraph 0036).
In the technique described in Patent Document 3, both the laser sensor 26 and the vision sensor 27 are provided at the tip portion of the robot, and their positions are variable according to the movement of the arm.

このように、従来技術は、固定的なカメラを用いるものであり、ロボットの可動範囲を広く見渡す上で、ロボットよりも十分高い位置に設置する必要があり、そのためのしっかりとした構造物を設置する必要があった。また、ロボット本体とは独立した構造物にカメラを設置するため、ロボット本体と設置面との位置関係、および、カメラを設置した構造物と設置面との位置関係を事前に把握し、その位置関係を前提としてロボットを操作する必要があった。ロボット動作中は、ロボット本体もカメラを設置した構造物も、位置関係が変わらないよう、設置面にしっかりと固定した状態で使うことが想定されていた。
また、固定的なカメラを用いる従来技術では、固定された位置から対象物を撮影する必要があるため、ロボット自身や構造物などによる死角がなくなるよう、カメラの配置や角度を工夫して固定する必要があった。
さらに、固定的なカメラを用いる従来技術では、高い位置から対象物の置かれている場所に加え、対象物の形状や立体構造までも認識できるよう、レンズの精度も良く、撮像素子の解像度も高い、高精度なカメラモジュールを使用する必要があった。
一方で、例えば比較的小型のロボットは、作業環境に恒久的あるいは半恒久的に固定設置されるものではなく、機動的にどこにでも持ち運んで活用可能なロボットである。そのような小型のロボットは、特定の場所に固定設置される代わりに、台座を床面あるいは作業台面等に、単に置くことにより、その場でロボットを動かし、対象物をピックアップしたり選別したりといった目的で使用することができる。
あるいは、移動用のレールや車輪などを備えた移動型のロボットの場合、広い範囲を自律的に移動し、対象物をピックアップし、選別して、異なるラインに流したり、離れた場所に収納したりすることが可能である。
In this way, the conventional technology uses a fixed camera, and it is necessary to install it at a position sufficiently higher than the robot in order to overlook the movable range of the robot, and a solid structure for that purpose is installed. I had to do it. In addition, since the camera is installed in a structure independent of the robot body, the positional relationship between the robot body and the installation surface and the positional relationship between the structure in which the camera is installed and the installation surface are grasped in advance, and the position is grasped. It was necessary to operate the robot on the premise of the relationship. During the operation of the robot, it was assumed that both the robot body and the structure on which the camera was installed were used in a state of being firmly fixed to the installation surface so that the positional relationship would not change.
In addition, in the conventional technology using a fixed camera, it is necessary to shoot an object from a fixed position, so the camera is fixed by devising the arrangement and angle so that there is no blind spot due to the robot itself or a structure. I needed it.
Furthermore, in the conventional technology using a fixed camera, the accuracy of the lens is good and the resolution of the image sensor is also high so that the shape and three-dimensional structure of the object can be recognized in addition to the place where the object is placed from a high position. It was necessary to use a high-precision, high-precision camera module.
On the other hand, for example, a relatively small robot is not a robot that is permanently or semi-permanently fixedly installed in a work environment, but is a robot that can be flexibly carried and used anywhere. Instead of being fixedly installed in a specific place, such a small robot can move the robot on the spot by simply placing the pedestal on the floor or work table, etc., and pick up or sort objects. It can be used for such purposes.
Alternatively, in the case of a mobile robot equipped with moving rails and wheels, it moves autonomously over a wide range, picks up objects, sorts them, and puts them on different lines or stores them in remote locations. It is possible to do it.

そういった可搬型のロボットは、置いた位置で手軽に作業を行うことができる反面、特許文献1、2、4のように作業環境(作業場所等)に対する精度の高い位置の把握が困難であるという問題を有していた。可搬型のロボットの外部に固定カメラ等を配置して位置情報を取得することも考えられるが、ロボットが動作中は、可搬型ロボット本体や固定カメラをしっかりと固定する必要が生じる。可搬型ロボットを持ち運んで設置するたびに置き方が変わるため、固定カメラの配置や角度も再調整する必要がある。このため、固定カメラ等を設置しなければならない場合には、可搬型のロボットの機動性が犠牲になる。
また、移動型のロボットの場合、固定的なカメラでロボットの可動範囲を見渡すため、例えば移動用のレールの長さに合わせて一定間隔で固定的なカメラを多数設置するなどが必要となる。ロボット1台に対し、高精度なカメラモジュールが複数必要となり、また、構造物の規模も大きくなり、コストがかさむ。
もしくは、ロボットが自由軌道を移動する場合、移動可能な場所の自由度が多すぎ、固定的なカメラの設置は現実的ではない。
Such a portable robot can easily perform work at the placed position, but it is difficult to grasp the position with high accuracy with respect to the work environment (work place, etc.) as in Patent Documents 1, 2 and 4. I had a problem. It is conceivable to place a fixed camera or the like outside the portable robot to acquire position information, but it is necessary to firmly fix the portable robot body and the fixed camera while the robot is in operation. Since the placement of the portable robot changes each time it is carried and installed, it is necessary to readjust the placement and angle of the fixed camera. Therefore, when a fixed camera or the like must be installed, the mobility of the portable robot is sacrificed.
Further, in the case of a mobile robot, since a fixed camera overlooks the movable range of the robot, it is necessary to install a large number of fixed cameras at regular intervals according to the length of the moving rail, for example. A plurality of high-precision camera modules are required for one robot, the scale of the structure is large, and the cost is high.
Alternatively, when the robot moves in a free trajectory, there are too many degrees of freedom in the place where it can move, and it is not realistic to install a fixed camera.

特開2017−071033号公報JP-A-2017-071033 特開2016−192135号公報Japanese Unexamined Patent Publication No. 2016-192135 特開2013−086915号公報Japanese Unexamined Patent Publication No. 2013-086915 特開2000−076441号公報Japanese Unexamined Patent Publication No. 2000-076441

本発明が解決しようとする問題点は、固定カメラ等を設置することなく、可搬型ロボットもしくは移動型のロボットが作業するために必要な、作業環境についての精度の高い位置情報を取得できるようにすることである。 The problem to be solved by the present invention is to be able to acquire highly accurate position information about the work environment necessary for a portable robot or a mobile robot to work without installing a fixed camera or the like. It is to be.

[1]上記の課題を解決するため、一態様によるロボットは、設置面に接する点を有する台座と、前記台座に垂直に取り付けられ、垂直軸回りを回転可能な支柱と、前記支柱に接続され、単数または複数の関節により向きを変えることを可能とするアームと、前記アームの先端に接続され、前記アームとの向きを変えることを可能とした先端部と、前記支柱に対して固定された位置に設けられ前記台座自身と前記台座の周辺の前記設置面とを撮影可能とした複数の第1カメラと、前記複数の第1カメラから第1画像を取得し、前記第1画像を座標変換することによって部分平面図画像を生成し、複数の前記部分平面図の位置合わせを行って合成することによって前記台座の画像を含んだ平面図画像を生成するとともに、前記平面図画像に基づいて前記先端部を所定の位置に移動させるために前記アームの向きを変えるよう制御する制御部と、を備える。 [1] In order to solve the above problems, the robot according to one aspect is connected to a pedestal having a point in contact with the installation surface, a support column vertically attached to the pedestal and rotatable around a vertical axis, and the support column. An arm that can be turned by a single or multiple joints, a tip that is connected to the tip of the arm and can be turned with the arm, and fixed to the strut. A plurality of first cameras provided at positions and capable of photographing the pedestal itself and the installation surface around the pedestal, and first images are acquired from the plurality of first cameras, and the first images are coordinate-converted. By doing so, a partial plan view image is generated, and by aligning and synthesizing the plurality of the partial plan views, a plan view image including the image of the pedestal is generated, and the above-mentioned A control unit for controlling the direction of the arm in order to move the tip portion to a predetermined position is provided.

[2]また、一態様は、上記のロボットにおいて、前記先端部に固定して設けられ、前記設置面方向に所定のパターンを有する光を照射する照射部、をさらに備える。 [2] Further, in one aspect, the robot further includes an irradiation unit which is fixedly provided to the tip portion and irradiates light having a predetermined pattern in the direction of the installation surface.

[3]また、一態様は、上記のロボットにおいて、前記先端部に設けられた第2カメラ、をさらに備え、前記制御部は、前記第2カメラから取得する第2画像にも基づいて前記アームの向きを変えるよう制御する。 [3] Further, in one aspect, the robot further includes a second camera provided at the tip end portion, and the control unit further includes the arm based on a second image acquired from the second camera. Control to change the direction of.

[4]また、一態様は、上記のロボットにおいて、前記設置面上を自律移動するための自律移動部、をさらに備えたものである。 [4] Further, in one aspect, the robot further includes an autonomous moving unit for autonomously moving on the installation surface.

[5]また、一態様は、上記のロボットにおいて、前記第1カメラおよび前記第2カメラは、同時に対象物を撮影し、前記制御部は、前記第1カメラおよび前記第2カメラによって同時にそれぞれ撮影された画像に基づいて前記アームの向きを変えるよう制御する。 [5] In one aspect, in the robot, the first camera and the second camera simultaneously photograph an object, and the control unit simultaneously photographs the first camera and the second camera, respectively. It is controlled to change the direction of the arm based on the image.

[6]また、一態様は、上記のロボットにおいて、前記第1カメラおよび前記第2カメラは、互いに異なるフェーズにおいて対象物を撮影し、前記制御部は、前記フェーズごとに、前記第1カメラが撮影した前記第1画像に基づいて前記アームの向きを変えるよう制御し、前記第2カメラが撮影した前記第2画像に基づいて前記アームの向きを変えるよう制御する。 [6] In one aspect, in the robot, the first camera and the second camera photograph an object in different phases, and the control unit uses the first camera for each phase. It is controlled to change the direction of the arm based on the captured first image, and is controlled to change the direction of the arm based on the second image captured by the second camera.

[7]また、一態様は、上記のロボットにおいて、複数の前記照射部を備え、複数の前記照射部のうちの少なくとも一部の照射部は、他の照射部とは異なる方向に前記光を照射する。 [7] Further, in one aspect, the robot includes a plurality of the irradiation units, and at least a part of the irradiation units emits the light in a direction different from that of the other irradiation units. Irradiate.

[8]また、一態様は、上記のロボットにおいて、前記制御部は、前記照射部が、前記設置面上の複数の所定位置の方向に前記光を順次照射するよう、前記先端部を移動させながら制御し、前記制御部は、前記複数の所定位置の方向に前記照射部が前記光を照射しているタイミングの各々に対応して複数の前記平面図画像を生成し、前記制御部は、前記複数の平面図画像に含まれる前記所定のパターンの光の位置に基づいて、前記設置面の段差または凹凸を算出する。 [8] Further, in one aspect, in the robot, the control unit moves the tip portion so that the irradiation unit sequentially irradiates the light in the directions of a plurality of predetermined positions on the installation surface. While controlling, the control unit generates a plurality of the plan view images corresponding to each of the timings at which the irradiation unit irradiates the light in the direction of the plurality of predetermined positions, and the control unit generates a plurality of the plan view images. The step or unevenness of the installation surface is calculated based on the position of the light of the predetermined pattern included in the plurality of plan view images.

本発明のロボットは、カメラをロボット本体に取り付けるため、ロボット以外にカメラを取り付ける構造物は必要ない。このため、ロボット本体と設置面との位置関係のみを把握すれば、ロボットを操作することができる。さらに、ロボットの台座を、その周辺の設置面とともに撮影可能であるため、ロボット本体と設置面との位置関係を自動的に把握できる。よって、ロボットを移動させた後にも、位置の設定のための操作を行う必要がない。 Since the robot of the present invention attaches the camera to the robot body, a structure for attaching the camera other than the robot is not required. Therefore, the robot can be operated by grasping only the positional relationship between the robot body and the installation surface. Further, since the pedestal of the robot can be photographed together with the installation surface around the robot, the positional relationship between the robot body and the installation surface can be automatically grasped. Therefore, even after moving the robot, it is not necessary to perform an operation for setting the position.

第1実施形態によるロボットの概略構成を示す側面図である。It is a side view which shows the schematic structure of the robot by 1st Embodiment. 第1実施形態において、第1カメラで撮影された画像を基に生成される合成済画像を示す概略図である。In the first embodiment, it is a schematic diagram which shows the synthesized image generated based on the image taken by the 1st camera. 第1実施形態において、レーザー照射部によって設置面に照射される複数のポイントを含んだ合成済画像を示す概略図である。In the first embodiment, it is a schematic diagram which shows the synthesized image including a plurality of points which irradiate the installation surface by a laser irradiation part. 第1実施形態によるロボットがターゲットをつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すフローチャートである(その1)。It is a flowchart which shows the procedure of the process for controlling the operation which the robot grasps a target and carries it to a place position by 1st Embodiment (the 1). 第1実施形態によるロボットがターゲットをつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すフローチャートである(その2)。It is a flowchart which shows the procedure of the process for controlling the operation which the robot grasps a target and carries it to a place position by 1st Embodiment (the 2). 第1実施形態によるロボットがターゲットをつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すフローチャートである(その3)。It is a flowchart which shows the procedure of the process for controlling the operation which the robot grasps a target and carries it to a place position by 1st Embodiment (the 3). 第1実施形態によるロボットがターゲットをつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すフローチャートである(その4)。It is a flowchart which shows the procedure of the process for controlling the operation which the robot grasps a target and carries it to a place position by 1st Embodiment (the 4). 第2実施形態の特徴的部分であるレーザー照射部の配置と、レーザーが照射される面との関係を示す概略図である。It is the schematic which shows the relationship between the arrangement of the laser irradiation part which is a characteristic part of 2nd Embodiment, and the surface which is irradiated with a laser. 第2実施形態によるレーザー照射部が照射したパターンの第1の例を示す概略図である。It is a schematic diagram which shows the 1st example of the pattern irradiated by the laser irradiation part by 2nd Embodiment. 第2実施形態によるレーザー照射部が照射したパターンの第2の例を示す概略図である。It is a schematic diagram which shows the 2nd example of the pattern irradiated by the laser irradiation part by 2nd Embodiment. 第2実施形態によるロボットが、レーザー照射部から照射面までの距離を算出するための原理を説明する概略図である。It is the schematic explaining the principle for calculating the distance from the laser irradiation part to the irradiation surface by the robot by 2nd Embodiment. 第2実施形態の変形例によるロボットが、レーザー照射部から照射面までの距離を算出するための原理を説明する概略図である。It is a schematic diagram explaining the principle for calculating the distance from the laser irradiation part to the irradiation surface by the robot by the modification of 2nd Embodiment. 第3実施形態によるロボットの移動動作を示す概略図である。It is a schematic diagram which shows the moving operation of the robot by 3rd Embodiment. 第3実施形態によるロボットがターゲットをつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すフローチャートである(その1)。It is a flowchart which shows the procedure of the process for controlling the operation which the robot grasps a target and carries it to a place position by 3rd Embodiment (the 1). 第3実施形態によるロボットがターゲットをつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すフローチャートである(その2)。It is a flowchart which shows the procedure of the process for controlling the operation which the robot grasps a target and carries it to a place position by 3rd Embodiment (the 2). 第3実施形態によるロボットがターゲットをつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すフローチャートである(その3)。It is a flowchart which shows the procedure of the process for controlling the operation which the robot grasps a target and carries it to a place position by 3rd Embodiment (the 3). 第3実施形態によるロボットがターゲットをつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すフローチャートである(その4)。It is a flowchart which shows the procedure of the process for controlling the operation which the robot grasps a target and carries it to a place position by 3rd Embodiment (the 4). 第4実施形態によるロボットがターゲットをつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すフローチャートである(その1)。It is a flowchart which shows the procedure of the process for controlling the operation which the robot grasps a target and carries it to a place position by 4th Embodiment (the 1). 第4実施形態によるロボットがターゲットをつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すフローチャートである(その2)。It is a flowchart which shows the procedure of the process for controlling the operation which the robot grasps a target and carries it to a place position by 4th Embodiment (the 2). 第4実施形態によるロボットがターゲットをつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すフローチャートである(その3)。It is a flowchart which shows the procedure of the process for controlling the operation which the robot grasps a target and carries it to a place position by 4th Embodiment (the 3). 第5実施形態において設置面が段差を有する場合のロボットの動作環境を示す斜視図である。It is a perspective view which shows the operating environment of the robot when the installation surface has a step in 5th Embodiment. 第5実施形態において第1カメラで撮影された画像を基に生成される合成済画像を示す概略図である。It is a schematic diagram which shows the synthesized image generated based on the image taken by the 1st camera in 5th Embodiment. 第5実施形態におけるレーザー照射部32が照射した設置面上のポイントを示す画像であって、第1カメラで撮影した画像をすべて重ね合わせて得られる合成済画像である。It is an image showing a point on the installation surface irradiated by the laser irradiation unit 32 in the fifth embodiment, and is a composite image obtained by superimposing all the images taken by the first camera. 第5実施形態におけるレーザー照射部32が照射した設置面上のポイントを示す画像であって、設置面に段差がある場合の合成済画像である。It is an image showing a point on the installation surface irradiated by the laser irradiation unit 32 in the fifth embodiment, and is a composite image when there is a step on the installation surface. 第5実施形態によるロボットが、レーザー照射部から段差を有する照射面までの距離を算出するための原理を説明する概略図(側面図)である。FIG. 5 is a schematic view (side view) for explaining a principle for calculating the distance from the laser irradiation unit to the irradiation surface having a step by the robot according to the fifth embodiment. 図25に対応する平面図である。It is a plan view corresponding to FIG. 図25の側面図における各点の幾何学的関係を抽出した概略図である。It is the schematic which extracted the geometric relation of each point in the side view of FIG.

以下では図面を参照しながら実施形態について説明する。 Hereinafter, embodiments will be described with reference to the drawings.

[第1実施形態]
[1.ロボットの構成]
図1は、第1実施形態によるロボットの概略構成を示す側面図である。図示するように、ロボット1は、台座11と、支柱12と、第1カメラ14L,14Rと、第1アーム15と、第2アーム16と、第1関節21と、第2関節22と、第3関節23と、先端部(ハンド)31と、レーザー照射部32と、フィンガー33と、第2カメラ34と、制御部40と、を含んで構成される。同図の左側がロボット1の正面側であり、右側がロボット1の背面側である。ロボット1は、比較的小型で、人が持ち運べるサイズの装置である。ロボット1は、設置面5の上に置くことにより使用することができる。台座11の底面は設置面5と接している。外部からの力が働かない限りは、台座11は設置面5上の所定の位置に固定されており動かない。支柱12はアームの一部であり、台座11に対する位置は固定している。ただし、支柱12は、設置面5に垂直な回転軸を中心として回転することが可能である。
[First Embodiment]
[1. Robot configuration]
FIG. 1 is a side view showing a schematic configuration of a robot according to the first embodiment. As shown in the figure, the robot 1 includes a pedestal 11, a support column 12, first cameras 14L and 14R, a first arm 15, a second arm 16, a first joint 21, a second joint 22, and a second. It includes three joints 23, a tip (hand) 31, a laser irradiation unit 32, a finger 33, a second camera 34, and a control unit 40. The left side of the figure is the front side of the robot 1, and the right side is the back side of the robot 1. The robot 1 is a relatively small device having a size that can be carried by a person. The robot 1 can be used by placing it on the installation surface 5. The bottom surface of the pedestal 11 is in contact with the installation surface 5. Unless an external force acts, the pedestal 11 is fixed at a predetermined position on the installation surface 5 and does not move. The support column 12 is a part of the arm, and its position with respect to the pedestal 11 is fixed. However, the support column 12 can rotate about a rotation axis perpendicular to the installation surface 5.

なお、第1カメラ14L,14Rを「ステレオカメラ」と呼ぶ場合がある。また、第2カメラ34を「先端カメラ」と呼ぶ場合がある。 The first cameras 14L and 14R may be referred to as "stereo cameras". Further, the second camera 34 may be referred to as a "advanced camera".

台座11は、ロボット1全体を支えるものである。台座11の底面は平面であり、設置面5の上に置くことができる。つまり、台座11は、設置面5に接する点あるいは面を有する。
支柱12は、台座11に対して固定されており、第1アーム15より先を支えるものである。
The pedestal 11 supports the entire robot 1. The bottom surface of the pedestal 11 is flat and can be placed on the installation surface 5. That is, the pedestal 11 has a point or surface in contact with the installation surface 5.
The support column 12 is fixed to the pedestal 11 and supports the tip of the first arm 15.

第1カメラ14L,14Rは、それぞれ、支柱12の左側および右側に設けられたカメラである。本実施例では、2台の第1カメラ14L,14Rが、支柱12に固定されて設けられている。第1カメラ14Lおよび14Rは、ロボット1の本体の正面側(図1における左側)を撮影するように設けられる。また、第1カメラ14Lおよび14Rのそれぞれのレンズの主軸がロボット1の本体の正面側のやや下方に向くように設けられる。したがって、第1カメラ14Lおよび14Rが撮像する画像には、設置面5が多く含まれる。第1カメラ14Lおよび14Rが撮像する画像に、ロボット1自身の一部(例えば、台座11の一部や、支柱12の一部等)が写り込んでもよい。つまり、第1カメラは、支柱12に対して固定された位置に設けられ台座11自身と台座の周辺の設置面5とを撮影可能として設けられたものである。 The first cameras 14L and 14R are cameras provided on the left side and the right side of the support column 12, respectively. In this embodiment, two first cameras 14L and 14R are fixedly provided on the support column 12. The first cameras 14L and 14R are provided so as to photograph the front side (left side in FIG. 1) of the main body of the robot 1. Further, the main axes of the lenses of the first cameras 14L and 14R are provided so as to face slightly downward on the front side of the main body of the robot 1. Therefore, the images captured by the first cameras 14L and 14R include many installation surfaces 5. A part of the robot 1 itself (for example, a part of the pedestal 11, a part of the support column 12, etc.) may be reflected in the images captured by the first cameras 14L and 14R. That is, the first camera is provided at a position fixed to the support column 12 so that the pedestal 11 itself and the installation surface 5 around the pedestal can be photographed.

第1カメラの台数は、3台以上であってもよい。後述するように、第1カメラは、ロボット1の本体の周囲をすべて撮影範囲としてカバーする目的で用いられる。したがって、死角が生じないようにするために、複数台の第1カメラが設けられる。また、それら複数台の第1カメラの少なくとも一部は、支柱12の代わりに、台座11に固定されて設けられてもよい。これらいずれの場合も、複数の第1カメラのそれぞれは、設置面5に対して固定された画角の画像を取得する。
複数の第1カメラを総称して「第1カメラ14」と呼ぶ場合がある。
The number of first cameras may be three or more. As will be described later, the first camera is used for the purpose of covering the entire circumference of the main body of the robot 1 as a shooting range. Therefore, a plurality of first cameras are provided in order to prevent blind spots from occurring. Further, at least a part of the plurality of first cameras may be fixedly provided on the pedestal 11 instead of the support column 12. In any of these cases, each of the plurality of first cameras acquires an image having a fixed angle of view with respect to the installation surface 5.
A plurality of first cameras may be collectively referred to as "first camera 14".

第1アーム15および第2アーム16は、ロボットのアームである。第1アーム15および第2アーム16を総称して単に「アーム」と呼ぶ。アームは、 台座11に直接的あるいは間接的に接続され、単数または複数の関節により向きを変えることを可能とするものである。
第1関節21は、支柱12と第1アーム15とを接続する関節である。
第2関節22は、第1アーム15と第2アーム16とを接続する関節である。
第3関節23は、第2アーム16と先端部31(「ハンド」とも呼ぶ)とを接続する関節である。
第1関節21,第2関節22,第3関節23のそれぞれは、設置面5に平行な回転軸、あるいは設置面5に垂直な回転軸を中心とした回転を可能とするものである。いずれかの関節が、複数軸で回転するものであってもよい。
これらのアームと関節の作用により、ロボット1は、先端部31を、可動範囲内の任意の位置に移動させることができる。また、ロボット1は、先端部31を可動範囲内の任意の向きに向かせることができる。
ロボット1において関節等の可動部の状態(例えば、変位回転角等)は、制御部40によって常に把握可能である。
The first arm 15 and the second arm 16 are robot arms. The first arm 15 and the second arm 16 are collectively referred to simply as "arms". The arm is directly or indirectly connected to the pedestal 11 and can be turned by a single or multiple joints.
The first joint 21 is a joint that connects the support column 12 and the first arm 15.
The second joint 22 is a joint that connects the first arm 15 and the second arm 16.
The third joint 23 is a joint that connects the second arm 16 and the tip portion 31 (also referred to as a “hand”).
Each of the first joint 21, the second joint 22, and the third joint 23 enables rotation about a rotation axis parallel to the installation surface 5 or a rotation axis perpendicular to the installation surface 5. Any joint may rotate on multiple axes.
By the action of these arms and joints, the robot 1 can move the tip portion 31 to an arbitrary position within the movable range. Further, the robot 1 can turn the tip portion 31 in any direction within the movable range.
In the robot 1, the state of movable parts such as joints (for example, displacement rotation angle, etc.) can always be grasped by the control unit 40.

ここでは、アームが2個で、関節が3個のロボット1を構成するようにしているが、アームの個数や関節の個数は、ここに例示しているものに限定されるわけではなく、任意である。設計等に応じて、適切な数の関節や、適切な数のアームを用いてよい。 Here, the robot 1 having two arms and three joints is configured, but the number of arms and the number of joints are not limited to those illustrated here, and are arbitrary. Is. An appropriate number of joints and an appropriate number of arms may be used depending on the design and the like.

先端部(ハンド)31は、ロボット1が作業をするための機能を有するものである。具体的には、先端部31には、レーザー照射部32や、フィンガー33や、第2カメラ34が取り付けられている。前述の通り、アームと関節とにより、先端部31は作業対象である物体等(ターゲット)に近づくことができる。先端部31が有する機能により、ロボット1は、ターゲットの画像を取得したり、ターゲットをつかんだり、つかんだ状態のターゲットを運んだりすることができる。つまり、先端部31は、アームの先端に関節等を介して接続される。先端部31と第2アーム16との間の向きを変えることができる。 The tip portion (hand) 31 has a function for the robot 1 to perform work. Specifically, a laser irradiation unit 32, a finger 33, and a second camera 34 are attached to the tip portion 31. As described above, the tip portion 31 can approach the object or the like (target) to be worked by the arm and the joint. Due to the function of the tip portion 31, the robot 1 can acquire an image of the target, grab the target, and carry the grabbed target. That is, the tip portion 31 is connected to the tip of the arm via a joint or the like. The orientation between the tip 31 and the second arm 16 can be changed.

レーザー照射部32(照射部)は、主に設置面5に向く方向に(設置面5に対して垂直に、あるいは斜めに)、レーザー光線を照射する。図1では1個のレーザー照射部32のみを示しているが、レーザー照射部32は、複数個所に設けられていてもよい。また、1個のレーザー照射部32が、同時に、あるいは時分割で、複数の方向にレーザー光線を照射するようにしてもよい。レーザー照射部32としては、例えば、クロスレーザーを用いる。クロスレーザーは、十字型にクロスしたパターンを照射するものである。
つまり、レーザー照射部32は、先端部31に固定して設けられ、(ほぼ)設置面方向に所定のパターンを有する光を照射する。
The laser irradiation unit 32 (irradiation unit) irradiates the laser beam mainly in the direction toward the installation surface 5 (perpendicularly or diagonally to the installation surface 5). Although FIG. 1 shows only one laser irradiation unit 32, the laser irradiation unit 32 may be provided at a plurality of locations. Further, one laser irradiation unit 32 may irradiate the laser beam in a plurality of directions at the same time or in a time division manner. As the laser irradiation unit 32, for example, a cross laser is used. The cross laser irradiates a cross-shaped cross pattern.
That is, the laser irradiation unit 32 is fixedly provided to the tip portion 31 and irradiates light having a predetermined pattern in the (almost) installation surface direction.

フィンガー33は、作業対象の物体をつかむことのできる機構を有する部材である。フィンガー33は、物体をつかむだけでなく、例えば設置面5の上に置かれている物体を押し動かすこともできる。また、フィンガー33が物体を吸着する機構を備えていてもよい。 The finger 33 is a member having a mechanism capable of grasping an object to be worked on. The finger 33 can not only grab the object but also push and move the object placed on the installation surface 5, for example. Further, the finger 33 may be provided with a mechanism for adsorbing an object.

第2カメラ34は、先端部31に固定して取り付けられたカメラである。前述の第1カメラが、設置面5に対して固定された高さ位置および画角で画像を取得するのに対して、第2カメラ34は、先端部31の移動に伴って、先端部31の可動範囲の制約の中で、様々な場所に近づいて画像を取得することができる。第2カメラ34は、通常は下向き(ほぼ設置面5を向く方向)で画像を撮影する。
第2カメラ34で撮影される画像(第2画像)は、対象物の位置を把握したり、フィンガー33の状態(フィンガー33が対象物をつかんでいるか否か)を把握したりするために用いられる。これらの把握に基づき、ロボット1のアームの移動および作業が計画される。
なお、図1では1個の第2カメラ34のみを示しているが、先端部31に複数の第2カメラ34が設けられていてもよい。
The second camera 34 is a camera fixedly attached to the tip portion 31. The first camera described above acquires an image at a height position and an angle of view fixed with respect to the installation surface 5, whereas the second camera 34 acquires the image at the tip portion 31 as the tip portion 31 moves. It is possible to approach various places and acquire images within the constraints of the movable range of. The second camera 34 normally captures an image in a downward direction (a direction substantially facing the installation surface 5).
The image (second image) taken by the second camera 34 is used for grasping the position of the object and grasping the state of the finger 33 (whether or not the finger 33 is grasping the object). Be done. Based on these grasps, the movement and work of the arm of the robot 1 are planned.
Although only one second camera 34 is shown in FIG. 1, a plurality of second cameras 34 may be provided at the tip portion 31.

上で説明したように、ロボット1は、第1カメラ14および第2カメラ34が撮影した画像により、視覚的な情報を取得する。なお、ロボット1が、各種センサー等を有することによって視覚以外の情報を取得するようにしてもよい。 As described above, the robot 1 acquires visual information from the images taken by the first camera 14 and the second camera 34. The robot 1 may acquire information other than vision by having various sensors and the like.

制御部40は、ロボット1全体を制御するための機能を有する。制御部40は、例えば電子回路により実現される。コンピューター(マイコンチップ等)を用いて制御部40を実現するようにしてもよい。コンピューターを用いる場合、ロボット1を制御するための機能をプログラムで記述することができる。制御部40が有する記憶手段(例えば、半導体メモリー等)にプログラムを記憶させて置き、コンピューターがプログラムを実行するようにすることもできる。制御部40が設けられる位置は任意であるが、例えば、図示するように台座11の内部に制御部40の機能を格納することができる。また、制御部40は複数の機器から構成されていてもよい。例えば、ロボット1のアーム制御に特化したハードウェア基板が台座11の内部に格納され、カメラからの画像処理やアームの制御方法は、ロボット1の外部にあるコンピューターによってソフトウェア的に実現され、ロボット1と外部にあるコンピューターとが通信して制御部40の処理を実現する構成であってもよい。 The control unit 40 has a function for controlling the entire robot 1. The control unit 40 is realized by, for example, an electronic circuit. The control unit 40 may be realized by using a computer (microcomputer chip or the like). When a computer is used, a function for controlling the robot 1 can be described by a program. It is also possible to store the program in a storage means (for example, a semiconductor memory or the like) included in the control unit 40 so that the computer executes the program. The position where the control unit 40 is provided is arbitrary, but for example, the function of the control unit 40 can be stored inside the pedestal 11 as shown in the figure. Further, the control unit 40 may be composed of a plurality of devices. For example, a hardware board specialized for arm control of the robot 1 is stored inside the pedestal 11, and image processing from the camera and the control method of the arm are realized by software by a computer outside the robot 1, and the robot The configuration may be such that 1 and an external computer communicate with each other to realize the processing of the control unit 40.

ロボット1が稼働するとき、制御部40は、第1カメラ14や第2カメラ34が撮影した画像を取得したり、ロボット1の各所に設けられた各種センサーからの信号を取得したりする。制御部40は、それらの情報あるいは信号に基づいて必要な判断を行い、その結果、ロボット1の各部材を動作させるための制御信号を出力する。制御部40は、例えば、第1関節21や第2関節22や第3関節23を所望の状態にするための指示信号を出力する。また、制御部40は、先端部31が有するレーザー照射部32やフィンガー33が所定の動作をするように指示信号を出力する。 When the robot 1 operates, the control unit 40 acquires images taken by the first camera 14 and the second camera 34, and acquires signals from various sensors provided in various parts of the robot 1. The control unit 40 makes a necessary determination based on the information or the signal, and as a result, outputs a control signal for operating each member of the robot 1. The control unit 40 outputs, for example, an instruction signal for bringing the first joint 21, the second joint 22, and the third joint 23 into a desired state. Further, the control unit 40 outputs an instruction signal so that the laser irradiation unit 32 and the finger 33 of the tip portion 31 perform a predetermined operation.

制御部40は、複数の第1カメラから第1画像を取得し、第1画像を座標変換することによって部分平面図画像を生成し、複数の部分平面図の位置合わせを行って合成することによって台座の画像を含んだ平面図画像を生成する。また、制御部40は、平面図画像に基づいて先端部31を所定の位置に移動させるためにアームの向きを変えるよう制御する。
また、制御部40は、第2カメラ34から取得する第2画像にも基づいてアームの向きを変えるよう制御する。
The control unit 40 acquires the first image from the plurality of first cameras, generates a partial plan view image by coordinate-transforming the first image, aligns the plurality of partial plan views, and synthesizes the images. Generate a plan image that includes an image of the pedestal. Further, the control unit 40 controls to change the direction of the arm in order to move the tip portion 31 to a predetermined position based on the plan view image.
Further, the control unit 40 controls to change the direction of the arm based on the second image acquired from the second camera 34.

[2.平面図画像の生成 ロボット周辺の状況把握]
制御部40は、複数の第1カメラ14Lおよび14Rが取得した画像を基に、1枚の平面図に相当する画像を生成する。そのために、制御部40は、まず、第1カメラ14Lおよび14Rから得られる画像のそれぞれを座標変換(アフィン変換)する。そして、制御部40は、次に、座標変換された各画像を合成(貼り付け)することによって、1枚の大きな画像を生成する。
[2. Generation of floor plan image Understanding the situation around the robot]
The control unit 40 generates an image corresponding to one plan view based on the images acquired by the plurality of first cameras 14L and 14R. Therefore, the control unit 40 first performs coordinate transformation (affine transformation) on each of the images obtained from the first cameras 14L and 14R. Then, the control unit 40 then generates one large image by synthesizing (pasting) each coordinate-transformed image.

図2は、第1カメラ14Lおよび14Rがそれぞれ撮影した画像を基に制御部40が生成した1枚の平面図画像を示す概略図である。同図において、101Lは、第1カメラ14Lが撮影した画像を座標変換して得られる部分平面図である。また、101Rは、第1カメラ14Lが撮影した画像を座標変換して得られる部分平面図である。第1カメラ14Lおよび14Rのそれぞれは斜め下方向に向けられたレンズで撮影を行うが、既存技術である座標変換を用いることにより、各カメラの画像は平面図の一部分として利用可能となる。このような画像を、それぞれ、座標変換済画像101Lおよび101Rと呼ぶ。座標変換済み画像101Lおよび101Rのそれぞれは、上方から設置面5を平面視した画像に相当する。制御部40は、座標変換済画像101Lおよび101Rを適切な位置で位置合わせし、両画像で重複して写されている領域を適切に重ね合わせ、あるいは必要に応じて切り落とすことによって合成済画像101を得る。合成済画像101内には、台座11の一部分が写り込んでいる。また、合成済画像101の大部分には、設置面5が写っている。また、設置面5上の撮影範囲内に物体等が置かれている場合には、それらの物体を平面視した画像も、合成済画像101内に含まれる。 FIG. 2 is a schematic view showing one plan view image generated by the control unit 40 based on the images taken by the first cameras 14L and 14R, respectively. In the figure, 101L is a partial plan view obtained by coordinate-transforming an image taken by the first camera 14L. Further, 101R is a partial plan view obtained by converting the coordinates of the image taken by the first camera 14L. Each of the first cameras 14L and 14R shoots with a lens directed diagonally downward, but by using the coordinate transformation which is an existing technique, the image of each camera can be used as a part of the plan view. Such images are referred to as coordinate-transformed images 101L and 101R, respectively. Each of the coordinate-transformed images 101L and 101R corresponds to an image in which the installation surface 5 is viewed in a plan view from above. The control unit 40 aligns the coordinate-transformed images 101L and 101R at appropriate positions, appropriately superimposes the overlapping areas of both images, or cuts off the composited image 101 as necessary. To get. A part of the pedestal 11 is reflected in the composited image 101. In addition, the installation surface 5 is shown in most of the composited image 101. Further, when objects or the like are placed within the photographing range on the installation surface 5, an image of those objects viewed in a plan view is also included in the synthesized image 101.

なお、本実施形態では、ロボット1の支柱12の左右にそれぞれ第1カメラ14Lおよび14Rを配置しているが、複数の第1カメラ14の配置のしかたは、左右には限られない。また、用いる第1カメラ14の台数も、2台には限定されず、例えば、3台以上の第1カメラを用いてもよい。一例として、ロボットの前後左右に計4台の第1カメラを設け、それらの各々のカメラにより、前方、後方、左方、右方を撮影し、その4枚の画像を座標変換したのちに1枚の平面図画像に合成してもよい。また、合成済画像101は、ロボット1の周囲全部(平面における360度)をカバーしていてもよいし、その一部の角度範囲のみをカバーしていてもよい。図2に例示する合成済画像101は、主として前方(一部、左方と右方とを含む)を映した平面図画像である。合成済画像101は、ロボット1の作業に関係する範囲のみを写した画像であってもよい。 In the present embodiment, the first cameras 14L and 14R are arranged on the left and right sides of the support column 12 of the robot 1, respectively, but the method of arranging the plurality of first cameras 14 is not limited to the left and right sides. Further, the number of the first cameras 14 to be used is not limited to two, and for example, three or more first cameras may be used. As an example, a total of four first cameras are provided on the front, back, left, and right sides of the robot, and each of these cameras photographs the front, rear, left, and right, and after coordinate-converting the four images, 1 It may be combined with a sheet of plan view images. Further, the synthesized image 101 may cover the entire circumference of the robot 1 (360 degrees in a plane), or may cover only a part of the angle range thereof. The composite image 101 illustrated in FIG. 2 is a plan view image mainly showing the front side (including a part of the left side and the right side). The composited image 101 may be an image showing only the range related to the work of the robot 1.

制御部40が座標変換(アフィン変換)する際のパラメーター(変換行列の係数等)は、例えば、ロボット1の個体ごとに予め設定しておいてよい。あるいは、撮影対象である設置面5上に基準となる位置を示す標識を置いておいて、撮影した画像に含まれる標識の画像内での座標位置に基づいて動的に座標変換のパラメーターを決定してもよい。なお、標識としては、例えば、バーコードや2次元コード等を用いる。以後において標識を用いて特定の物体あるいは場所等を認識する場合も同様である。 Parameters (coefficients of the transformation matrix, etc.) when the control unit 40 performs coordinate transformation (affine transformation) may be set in advance for each individual robot 1, for example. Alternatively, a sign indicating a reference position is placed on the installation surface 5 to be photographed, and the parameters of coordinate conversion are dynamically determined based on the coordinate position of the sign included in the photographed image in the image. You may. As the sign, for example, a bar code, a two-dimensional code, or the like is used. The same applies to the subsequent recognition of a specific object or place using a sign.

なお、制御部40が複数の第1カメラで撮影した画像を基に、座標変換処理平面図画像(の部分画像)を生成する処理を、「アラウンドビュー処理」と呼ぶことがある。 The process in which the control unit 40 generates (a partial image) of the coordinate conversion process plan view image based on the images taken by the plurality of first cameras may be referred to as "around view process".

このように、複数の第1カメラ14が撮影した画像を基に制御部40が平面図画像を作成する。これにより、ロボット1は、ロボット1の周辺の比較的広い範囲(例えば、先端部31の可動領域をカバーする範囲)の平面図の情報を、死角なしに取得することができる。このように得られる平面図の情報には、ロボット1が実行する作業を計画するための情報が含まれており、円滑にロボット1が作業を進められるようになる。 In this way, the control unit 40 creates a plan view image based on the images taken by the plurality of first cameras 14. As a result, the robot 1 can acquire information on the plan view of a relatively wide range around the robot 1 (for example, a range covering the movable area of the tip portion 31) without a blind spot. The information on the plan view obtained in this way includes information for planning the work to be executed by the robot 1, so that the robot 1 can smoothly proceed with the work.

なお、支柱12は設置面に対して垂直方向の軸を中心として回転可能であるが、第1カメラ14は、ロボット1の台座を含む範囲を撮影するため、制御部40は、生成される平面図画像に基づき、その回転方向を把握することも可能である。 The support column 12 is rotatable about an axis perpendicular to the installation surface, but since the first camera 14 captures a range including the pedestal of the robot 1, the control unit 40 is generated on a flat surface. It is also possible to grasp the rotation direction based on the figure image.

また、制御部40は、生成した平面図画像を基に、台座11の向き、および各アーム(第1アーム15および第2アーム16)の向きや先端部31の向きを把握する。具体的には、制御部40は、生成した平面図画像内に写っている台座11の、周辺環境における向きを把握する。言い換えれば、制御部40は、生成した平面図画像内に写っている周辺の物体等(既知の位置を示す標識等を含んでいてもよい)の位置と、自ロボット1の台座11の位置との関係を把握する。そして、制御部40は、台座11の位置と、第1関節21の状態(当該関節の回転軸を中心とする変位角)とから、第1アーム15の方向を把握する。そして、制御部40は、第1アーム15の方向と、第2関節22の状態(当該関節の回転軸を中心とする変位角)とから、第2アーム16の方向を把握する。そして、制御部40は、第2アーム16の方向と、第3関節23の状態(当該関節の回転軸を中心とする変位角)とから、先端部31の方向を把握する。なお、第1アーム15および第2アーム16の長さは固定であるため、制御部40は、第2関節22および第3関節23のそれぞれの位置をも把握できる。さらに、制御部40は、第3関節23の位置に基づき、先端部31の位置を把握することができる。
制御部40は、上記の方法で求められた各アームの方向、各関節の位置、先端部31の位置や方向を、適宜、記憶することができる。
Further, the control unit 40 grasps the orientation of the pedestal 11, the orientation of each arm (first arm 15 and the second arm 16), and the orientation of the tip portion 31 based on the generated plan view image. Specifically, the control unit 40 grasps the orientation of the pedestal 11 shown in the generated plan view image in the surrounding environment. In other words, the control unit 40 has a position of a peripheral object or the like (may include a sign or the like indicating a known position) shown in the generated plan view image and a position of the pedestal 11 of the own robot 1. Understand the relationship. Then, the control unit 40 grasps the direction of the first arm 15 from the position of the pedestal 11 and the state of the first joint 21 (displacement angle about the rotation axis of the joint). Then, the control unit 40 grasps the direction of the second arm 16 from the direction of the first arm 15 and the state of the second joint 22 (displacement angle about the rotation axis of the joint). Then, the control unit 40 grasps the direction of the tip portion 31 from the direction of the second arm 16 and the state of the third joint 23 (displacement angle centered on the rotation axis of the joint). Since the lengths of the first arm 15 and the second arm 16 are fixed, the control unit 40 can also grasp the positions of the second joint 22 and the third joint 23, respectively. Further, the control unit 40 can grasp the position of the tip portion 31 based on the position of the third joint 23.
The control unit 40 can appropriately store the direction of each arm, the position of each joint, and the position and direction of the tip portion 31 obtained by the above method.

また、制御部40は、生成した平面図画像を基に、自ロボット1の台座11の位置を基準とした、ターゲット(作業対象である物体や場所等)の位置を把握することができる。制御部40は、上記ターゲットの画像としての特徴を予め学習しておくことにより、生成した平面図画像内でのターゲットの位置を把握することができる。あるいは、GUI(graphical user interface)によりユーザーがターゲットの位置を指定できるようにしてもよい。GUIを用いる場合、制御部40は生成した平面図画像をユーザーが操作する端末装置のディスプレイに表示して、ユーザーがターゲットの位置をその平面図画像上で指示することによって制御部40がターゲットの位置を把握する。これらの方法により、制御部40は、自ロボット1を基準としたときのターゲットの位置を所定の精度で把握することができる。つまり、制御部40は、把握できたターゲットの位置に基づいて、例えば先端部31をそのターゲットの近くまで移動させる計画を立てることができる。 Further, the control unit 40 can grasp the position of the target (object, place, etc. to be worked) based on the position of the pedestal 11 of the own robot 1 based on the generated plan view image. The control unit 40 can grasp the position of the target in the generated plan view image by learning the characteristics of the target as an image in advance. Alternatively, the GUI (graphical user interface) may allow the user to specify the position of the target. When the GUI is used, the control unit 40 displays the generated plan view image on the display of the terminal device operated by the user, and the control unit 40 indicates the position of the target on the plan view image of the target. Grasp the position. By these methods, the control unit 40 can grasp the position of the target with respect to the own robot 1 with a predetermined accuracy. That is, the control unit 40 can make a plan to move, for example, the tip portion 31 closer to the target based on the grasped position of the target.

[3.レーザーの照射によるターゲットの構造の推定、およびターゲットをつかむ動作]
先端部31に設けられているレーザー照射部32は、レーザーを照射する。先端部31に設けられている第2カメラ34は、レーザーが照射された状態で撮影を行うこともできる。なお、レーザー照射部32は、所定のパターンを有するレーザー(投影面に所定の形状で照射されるレーザー)を照射してもよい。また、レーザー照射部32は、1種類のレーザーのみを照射してもよいし、複数の位置からあるいは複数の角度でレーザーを照射してもよい。また、第2カメラ34は、1台だけ設けられていてもよいし、複数設けられていてもよい。いずれの場合にも、制御部40は、対象物体(ターゲット)に投影されたレーザー光に基づいて、対象物体との距離や対象物体の向きを推定する。このとき、制御部40は、予め取得しておいた対象物体の形状に関する情報を参照してもよい。
[3. Estimating the structure of the target by irradiating the laser and the action of grabbing the target]
The laser irradiation unit 32 provided at the tip portion 31 irradiates the laser. The second camera 34 provided at the tip portion 31 can also take a picture in a state of being irradiated with a laser. The laser irradiation unit 32 may irradiate a laser having a predetermined pattern (a laser that irradiates the projection surface with a predetermined shape). Further, the laser irradiation unit 32 may irradiate only one type of laser, or may irradiate the laser from a plurality of positions or at a plurality of angles. Further, only one second camera 34 may be provided, or a plurality of second cameras 34 may be provided. In either case, the control unit 40 estimates the distance to the target object and the direction of the target object based on the laser beam projected on the target object (target). At this time, the control unit 40 may refer to the information regarding the shape of the target object acquired in advance.

なお、対象物体との距離や向きが推定できない場合には、制御部40は、アームを所定量動かすことにより先端部31の位置や向きを少し変える。制御部40は、先端部31を動かす前後における画像の変化(対象物体に投影されるレーザー光の形状あるいは大きさ等の変化を含む)を基に、対象物体との距離や向きを再推定することが可能となる。 If the distance or orientation to the target object cannot be estimated, the control unit 40 slightly changes the position or orientation of the tip portion 31 by moving the arm by a predetermined amount. The control unit 40 re-estimates the distance and direction to the target object based on changes in the image (including changes in the shape or size of the laser beam projected on the target object) before and after moving the tip portion 31. It becomes possible.

制御部40は、第2カメラ34の画像を解析することによって得られた対象物体との距離や向きといった情報を基に、先端部31を対象物体にさらに近づけるためにアームを動かす量を算出する。また、対象物体をつかむ場合には、制御部40は、そのための先端部31の適切な向きの情報を基に、第3関節23を動かす量を算出する。また、必要に応じて、制御部40は、対象物体をつかむためのフィンガー33の動作量を算出する。そして、制御部40は、算出されたこれらの値に基づき、実際に各関節やフィンガーを動かす制御を行う事により、対象物体をつかむ。 The control unit 40 calculates the amount of movement of the arm to bring the tip portion 31 closer to the target object based on the information such as the distance and the direction to the target object obtained by analyzing the image of the second camera 34. .. Further, when grasping the target object, the control unit 40 calculates the amount of movement of the third joint 23 based on the information of the appropriate orientation of the tip portion 31 for that purpose. Further, if necessary, the control unit 40 calculates the amount of movement of the finger 33 for grasping the target object. Then, the control unit 40 grasps the target object by actually controlling the movement of each joint or finger based on these calculated values.

つかむ動作を行った後、制御部40は、さらに第2カメラ34が撮影を行うよう指示を出す。そして、制御部40は、第2カメラ34が撮影した画像を取得する。複数の第2カメラ34が設けられている場合にはそれら複数のカメラのそれぞれから画像を取得してもよい。制御部40は、画像を解析することにより、フィンガー33が対象物体をつかむことができたかどうかを判断することができる。なお、第2カメラによって判断する代わりに、第1カメラによって判断することでもよい。また、フィンガー33にリミットスイッチあるいは触覚センサーが実装され、対象物体をつかむことができたかはその出力信号によって判定できるしくみとしてもよい。 After performing the grasping operation, the control unit 40 further instructs the second camera 34 to take a picture. Then, the control unit 40 acquires the image taken by the second camera 34. When a plurality of second cameras 34 are provided, images may be acquired from each of the plurality of cameras. By analyzing the image, the control unit 40 can determine whether or not the finger 33 has been able to grab the target object. In addition, instead of making a judgment by the second camera, it may be judged by the first camera. Further, a limit switch or a tactile sensor may be mounted on the finger 33, and whether or not the target object can be grasped may be determined by the output signal.

[4.つかんだ物体をプレース位置まで運んで格納する動作]
ロボット1のフィンガー33が物体をつかんでいる状態から、その物体をプレース位置まで運ぶ動作のための制御は、次の通りである。なおここで、「プレース」とは、物体等を置くために指定された場所、あるいは物体等を格納するための容器等である。
フィンガー33が対象物体をつかんだ位置は、設置面とほぼ同じ高さ位置のため、対象物体移動時に、設置面や周囲と干渉しないよう、ある一定の高さ位置までアームを上げる。
第1カメラ14Lおよび14Rは、撮影を行う。制御部40は、第1カメラ14Lおよび14Rから画像を取得し、それらの画像を用いて平面図画像を生成する。平面図画像を生成するための方法は、既に説明した通りである。
次に、制御部40は、生成した平面図画像に基づいて、プレース位置を把握する。制御部40は、予めプレース位置の画像の特徴を学習しており、平面図画像から自動的にその場所を認識する。あるいは、GUIによりユーザーがプレースの位置を指定できるようにしてもよい。GUIを用いる場合、制御部40は、平面図画像を端末装置のディスプレイに表示し、ユーザーが指示した平面図画像上の位置の情報を取得する。
[4. Operation to carry and store the grabbed object to the place position]
The control for the operation of carrying the object from the state where the finger 33 of the robot 1 is grasping the object to the place position is as follows. Here, the "place" is a place designated for placing an object or the like, or a container or the like for storing the object or the like.
Since the position where the finger 33 grabs the target object is substantially the same height as the installation surface, the arm is raised to a certain height position so as not to interfere with the installation surface or the surroundings when the target object moves.
The first cameras 14L and 14R perform photographing. The control unit 40 acquires images from the first cameras 14L and 14R, and generates a plan view image using those images. The method for generating the plan image is as described above.
Next, the control unit 40 grasps the place position based on the generated plan view image. The control unit 40 has learned the characteristics of the image at the place position in advance, and automatically recognizes the position from the plan view image. Alternatively, the GUI may allow the user to specify the position of the place. When the GUI is used, the control unit 40 displays the plan view image on the display of the terminal device and acquires the position information on the plan view image instructed by the user.

次に、制御部40は、先端部31を、現在位置からプレース位置の上部まで移動させる計画を立てる。この移動計画を作成する処理は、前述の、先端部31をターゲット物体の上部まで移動させる計画を行った処理と同様のものである。制御部40は、作成した計画に基づいて、アームを動かす制御を行う事により、先端部31をプレース位置の上部まで移動させる。この移動は、x−y平面に平行な移動である。
次に、制御部40は、第2カメラが撮影した画像を取得し、その画像を解析することによって先端部31がプレース位置の上部に来ているか否かを確認する。確認ができた場合に、制御部40は、物体をプレース位置に格納するための制御を行う。即ち、制御部40は、先端部31をプレース位置まで下す制御をした上で、物体をその位置に格納する(つまり、つかんでいた物体を放す)ようにフィンガー33を制御する。
Next, the control unit 40 makes a plan to move the tip portion 31 from the current position to the upper part of the place position. The process of creating this movement plan is the same as the above-mentioned process of planning to move the tip portion 31 to the upper part of the target object. The control unit 40 moves the tip portion 31 to the upper part of the place position by controlling the movement of the arm based on the created plan. This movement is parallel to the xy plane.
Next, the control unit 40 acquires an image taken by the second camera and analyzes the image to confirm whether or not the tip portion 31 is above the place position. If it can be confirmed, the control unit 40 controls to store the object in the place position. That is, the control unit 40 controls the finger 33 so as to store the object at that position (that is, release the grasped object) after controlling the tip portion 31 to be lowered to the place position.

なお、ロボット1は、フィンガー33を使って物体をつかんだり放したりするだけではなく、例えば置かれている物体を押し動かすなどといった動作を行ってもよい。また、ロボット1は、フィンガー33が有する吸着機構を用いて物体を吸着させたり、吸着した状態でその物体を動かしたりしてもよい。この場合にも、制御部40は、先端部31を適切に移動させ、フィンガー33を適切に動作させる。 The robot 1 may not only use the fingers 33 to grab and release an object, but may also perform an operation such as pushing and moving an placed object. Further, the robot 1 may suck an object by using the suction mechanism of the finger 33, or may move the object in the sucked state. Also in this case, the control unit 40 appropriately moves the tip portion 31 and appropriately operates the finger 33.

[5.レーザーの照射]
先端部31に設けられているレーザー照射部32からレーザーを照射することにより、設置面の高さ(段差や面上の凹凸)を測定することが可能となる。以下にその説明を行う。
[5. Laser irradiation]
By irradiating the laser from the laser irradiation unit 32 provided on the tip portion 31, the height of the installation surface (step and unevenness on the surface) can be measured. The explanation will be given below.

(1)複数のレーザー照射部の利用
先端部31に複数のレーザー照射部32を設けることができる。
図3は、レーザー照射部32による照射の状況を示す概略図である。同図は、2つのレーザー照射部32が設置面5上に、それぞれ、P1およびP2の2つの照射光を照射している状況を示す。P1およびP2は、点状にまたはほぼ点状に照射されたレーザー光である。ここで、設置面5上で、点P1と点P2との間の距離をdとする。なお、第1カメラ14Lおよび14Rが設置面5上に照射されたこれら点P1およびP2を含む画像を撮影し、制御部40がその画像を取得することができる。なお、図3は、それらの画像を合成して得られた合成済画像である。
(1) Utilization of a plurality of laser irradiation units A plurality of laser irradiation units 32 can be provided on the tip portion 31.
FIG. 3 is a schematic view showing a state of irradiation by the laser irradiation unit 32. The figure shows a situation in which the two laser irradiation units 32 irradiate the installation surface 5 with the two irradiation lights P1 and P2, respectively. P1 and P2 are laser beams irradiated in dots or substantially dots. Here, let d be the distance between the points P1 and P2 on the installation surface 5. The first cameras 14L and 14R can take an image including these points P1 and P2 irradiated on the installation surface 5, and the control unit 40 can acquire the image. Note that FIG. 3 is a composited image obtained by synthesizing those images.

(2)取り付け角度の異なるレーザーの利用
先端部31に複数のレーザー照射部32を設ける場合、それら複数のレーザー照射部32のうちの少なくとも1つが、他のレーザー照射部32とは異なる方向にレーザーを照射するよう調整しておくことが可能である。この場合、先端部31の高さ(設置面5からの距離)が変われば、その変化に応じて、設置面に照射された2つのレーザー光の間の距離(図3における距離d)も変わる。このことを利用して、設置面5上に照射されたレーザー光の間の距離dに基づいて、先端部31から設置面までの高さを計算することができる。なお、設置面5上の距離dは、制御部40が取得した画像に適切なスケール処理を施すことにより求められる。
これにより、制御部40は、フィンガー33が対象物をつかんでいる状態であってもつかんでいない状態であっても、先端部31を移動させたときの高さ方向の移動量を求めることができる。
(2) Use of Lasers with Different Mounting Angles When a plurality of laser irradiation units 32 are provided on the tip portion 31, at least one of the plurality of laser irradiation units 32 is a laser in a direction different from that of the other laser irradiation units 32. It is possible to adjust to irradiate. In this case, if the height of the tip portion 31 (distance from the installation surface 5) changes, the distance between the two laser beams irradiated on the installation surface (distance d in FIG. 3) also changes according to the change. .. Utilizing this, the height from the tip portion 31 to the installation surface can be calculated based on the distance d between the laser beams emitted on the installation surface 5. The distance d on the installation surface 5 is obtained by performing an appropriate scale processing on the image acquired by the control unit 40.
As a result, the control unit 40 can obtain the amount of movement in the height direction when the tip portion 31 is moved, regardless of whether the finger 33 is holding the object or not. can.

(3)設置面に垂直に照射するレーザーの利用
制御部40は、ロボットを制御することにより、設置面5上に予め設定した複数の設定位置に先端部31を順次動かす。制御部40は、各設定位置上で、真下に向けて(設置面5に対して垂直に)レーザー光を照射するように設けられたレーザー照射部32による照射を行うよう制御する。制御部40は、その都度、第1カメラ14Lおよび14Rで撮影した画像を取得する。撮影した画像に基づいて、座標変換と位置合わせを行うことにより合成して、合成済画像を得ることができる。各設定位置において上記の操作を行うことによって得られる合成済画像では、すべて同じ位置に照射光の点が現れるはずである。ただし、設置面5に段差あるいは凹凸が存在する場合には、照射光の点の位置がずれる。制御部は、各設定位置で得られた合成済画像を重ね合わせる処理を行うことにより、設置面5の高さのずれを検知することができる。
(3) Use of a laser that irradiates the installation surface vertically
By controlling the robot, the control unit 40 sequentially moves the tip portion 31 to a plurality of preset set positions on the installation surface 5. The control unit 40 controls the irradiation by the laser irradiation unit 32 provided so as to irradiate the laser light directly downward (perpendicular to the installation surface 5) on each set position. The control unit 40 acquires images taken by the first cameras 14L and 14R each time. A composited image can be obtained by synthesizing the captured image by performing coordinate transformation and alignment. In the synthesized image obtained by performing the above operation at each set position, the spot of the irradiation light should appear at the same position. However, if there is a step or unevenness on the installation surface 5, the position of the point of the irradiation light shifts. The control unit can detect a deviation in the height of the installation surface 5 by performing a process of superimposing the combined images obtained at each set position.

設置面5上における上記の照射点のずれを計算することにより、設置面5の凹凸状況が分かる。制御部40は、この計算により、ターゲットをつかむ高さを決めることが出来る。 By calculating the deviation of the irradiation points on the installation surface 5, the unevenness of the installation surface 5 can be known. The control unit 40 can determine the height at which the target is grabbed by this calculation.

[6.処理手順]
図4,図5,図6,図7は、ロボット1がターゲットの物体をつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すフローチャートである。図4,図5,図6,図7は、結合子によって結合された1つのフローチャートである。以下、このフローチャートに沿って、処理手順について説明する。
[6. Processing procedure]
4, FIG. 5, FIG. 6, and FIG. 7 are flowcharts showing a processing procedure for controlling an operation in which the robot 1 grabs a target object and carries it to a place position. 4, FIG. 5, FIG. 6, and FIG. 7 are one flowchart connected by a coupler. Hereinafter, the processing procedure will be described with reference to this flowchart.

まず図4のステップS1において、制御部40は、第1カメラ14Lおよび14Rが撮影した画像を取得する。
次に、ステップS2において、制御部40は、ステップS1で取得した各画像のアラウンドビュー処理(座標変換処理)を行い、それらの画像を合成する処理を行う。これにより、制御部40は、ロボット1の周辺の平面図画像を生成する。
次に、ステップS3において、制御部40は、ステップS2で生成した平面図画像内に含まれる台座11を認識する。台座11を認識するために、制御部40は、予め台座11の画像としての特徴を学習しておく。あるいは、制御部40は、台座11の所定の箇所に付けられた標識(特徴的な画像)を認識することにより台座11を認識する。あるいは、制御部40は、各々の第1カメラ(14Lや14R)で撮影した画像における台座11のおよその座標位置を予め取得しておく。制御部40は、台座11を認識するために、ここに例示した方法の複数を組み合わせて用いてもよい。
First, in step S1 of FIG. 4, the control unit 40 acquires the images taken by the first cameras 14L and 14R.
Next, in step S2, the control unit 40 performs an around view process (coordinate conversion process) of each image acquired in step S1 and performs a process of synthesizing those images. As a result, the control unit 40 generates a plan view image of the periphery of the robot 1.
Next, in step S3, the control unit 40 recognizes the pedestal 11 included in the plan view image generated in step S2. In order to recognize the pedestal 11, the control unit 40 learns the characteristics of the pedestal 11 as an image in advance. Alternatively, the control unit 40 recognizes the pedestal 11 by recognizing a sign (characteristic image) attached to a predetermined portion of the pedestal 11. Alternatively, the control unit 40 acquires in advance the approximate coordinate positions of the pedestal 11 in the images taken by the respective first cameras (14L and 14R). The control unit 40 may use a plurality of the methods illustrated here in combination in order to recognize the pedestal 11.

次に、ステップS4において、制御部40は、前述の方法により、ロボット1が有する各アーム(第1アーム15、第2アーム16)の向きや角度、支柱12の向き(回転軸を中心とした回転の向き)、および先端部31の位置と向きを計算し、記憶する。なお、制御部40は、各アームの向きや、先端部31の位置および向きを、台座11を基準として相対的な向きあるいは位置として計算する。ステップS3において平面図画像内の台座11が認識されているため、制御部40は、平面図画像の座標を基準として各アームの向きや、先端部31の位置および向きを把握できる。
次に、ステップS5において、制御部40は、操作の対象とするターゲット(物体や場所)を平面図画像内で認識する。制御部40は、前述の通り、予め取得しているターゲットの特徴を用いて平面図画像内のターゲットを認識できる。また、制御部40が、ユーザーによる指定(GUIからの指定)によりターゲットを認識するようにしてもよい。
Next, in step S4, the control unit 40 uses the method described above to determine the orientation and angle of each arm (first arm 15, second arm 16) of the robot 1 and the orientation of the support column 12 (centered on the rotation axis). The direction of rotation) and the position and orientation of the tip 31 are calculated and stored. The control unit 40 calculates the orientation of each arm and the position and orientation of the tip portion 31 as a relative orientation or position with reference to the pedestal 11. Since the pedestal 11 in the plan view image is recognized in step S3, the control unit 40 can grasp the orientation of each arm and the position and orientation of the tip portion 31 with reference to the coordinates of the plan view image.
Next, in step S5, the control unit 40 recognizes the target (object or place) to be operated in the plan view image. As described above, the control unit 40 can recognize the target in the plan view image by using the characteristics of the target acquired in advance. Further, the control unit 40 may recognize the target by the designation by the user (designation from the GUI).

次に、ステップS6において、制御部40は、アームおよび先端部31の移動計画を行う。制御部40は、既に把握しているアームおよび先端部31の現在位置と、ターゲットの位置とに基づき、アームおよび先端部31の移動を計画する。例えば、制御部40は、先端部31をx−y平面(設置面5)と平行に移動させることによりターゲット位置の上部に持っていくよう、アームの動きを計画する。このとき、制御部40は、直交座標(x軸およびy軸)を用いた計算を行ってもよいし、台座11の所定の位置を極とする極座標を用いた計算を行ってもよい。なお、「ターゲット位置の上部」とは、必ずしもターゲットの真上の位置(x−y平面におけるターゲット位置から、x−y平面と垂直に上方に移動させた位置)でなくてもよい。例えば、先端部31に取り付けられた第2カメラ34がターゲットを認識しやすい位置や、フィンガー33がターゲットを操作しやすい位置を「ターゲット位置の上部」としてもよい。
次に、ステップS7において、制御部40は、ステップS6で立てた計画に基づき、アームを移動させる制御を行う。これにより、何らかの不測の状況(例えば、ロボット1自体が持ち上げられてその位置が変えられてしまうなど)が生じない限り、先端部31は、ターゲット位置の上方に移動する。
Next, in step S6, the control unit 40 plans the movement of the arm and the tip portion 31. The control unit 40 plans the movement of the arm and the tip portion 31 based on the current position of the arm and the tip portion 31 already grasped and the position of the target. For example, the control unit 40 plans the movement of the arm so that the tip portion 31 is moved in parallel with the xy plane (installation surface 5) to bring it to the upper part of the target position. At this time, the control unit 40 may perform a calculation using Cartesian coordinates (x-axis and y-axis), or may perform a calculation using polar coordinates with a predetermined position of the pedestal 11 as a pole. The "upper part of the target position" does not necessarily have to be the position directly above the target (the position moved upward from the target position in the xy plane perpendicular to the xy plane). For example, a position where the second camera 34 attached to the tip portion 31 can easily recognize the target or a position where the finger 33 can easily operate the target may be defined as the “upper part of the target position”.
Next, in step S7, the control unit 40 controls to move the arm based on the plan established in step S6. As a result, the tip portion 31 moves above the target position unless some unexpected situation (for example, the robot 1 itself is lifted and its position is changed) occurs.

次に、ステップS8において、制御部40は、第2カメラ34で撮影した画像を取得する。
次に、ステップS9において、制御部40は、ステップS8で取得した画像を解析し、その画像内におけるターゲットを認識する。また、制御部40は、その画像内におけるターゲットの位置を把握する。本ステップでターゲットの認識を行うのは、ステップS6で立てた移動計画で目標としたターゲット位置の上部に実際に先端部31が来ているか否かをチェックするためである。
Next, in step S8, the control unit 40 acquires an image taken by the second camera 34.
Next, in step S9, the control unit 40 analyzes the image acquired in step S8 and recognizes the target in the image. In addition, the control unit 40 grasps the position of the target in the image. The purpose of recognizing the target in this step is to check whether or not the tip portion 31 actually comes to the upper part of the target position targeted in the movement plan established in step S6.

次に、ステップS10において、制御部40は、ステップS9で把握したターゲットの位置(第2カメラ34で撮影した画像内の位置)に基づき、先端部31の現在位置がターゲットに対して適切であるか否かを判断する。先端部31の位置(アームの位置)が適切である場合(ステップS10:YES)には、図5のステップS12に進む。先端部31の位置が適切ではない場合(ステップS10:NO)には、位置を補正するためにS11に進む。
ステップS11に進んだ場合には、制御部40は、ターゲットが第2カメラの視野内に存在するか否かを判定する。言い換えれば、制御部40は、ステップS8で第2カメラ34から取得した画像内にターゲットが存在していたか否かを判定する。ターゲットが第2カメラの視野内である場合(ステップS11:YES)には、アームの再移動による位置の補正を行うために、ステップS6に進む。ターゲットが第2カメラの視野内ではない場合(ステップS11:NO)には、第1カメラによるターゲットの捕捉からやり直すために、ステップS1に戻る。
Next, in step S10, the control unit 40 has an appropriate current position of the tip portion 31 with respect to the target based on the position of the target (position in the image captured by the second camera 34) grasped in step S9. Judge whether or not. If the position of the tip portion 31 (position of the arm) is appropriate (step S10: YES), the process proceeds to step S12 of FIG. If the position of the tip 31 is not appropriate (step S10: NO), the process proceeds to S11 to correct the position.
When the process proceeds to step S11, the control unit 40 determines whether or not the target is within the field of view of the second camera. In other words, the control unit 40 determines whether or not the target exists in the image acquired from the second camera 34 in step S8. If the target is within the field of view of the second camera (step S11: YES), the process proceeds to step S6 in order to correct the position by removing the arm. If the target is not within the field of view of the second camera (step S11: NO), the process returns to step S1 in order to start over from capturing the target by the first camera.

次に、図5に示す処理を説明する。
ステップS12に進んだ場合、制御部40は、レーザー照射部32がレーザーを照射するよう制御する。
次に、ステップS13において、レーザーが照射されている状態で、第2カメラ34が撮影を行う。制御部40は、第2カメラ34からその画像を取得する。
次に、ステップS14において、制御部40は、ステップS13で取得した画像に基づいて、ターゲットの立体構造を推定する処理を行う。ここで具体的には、前述の通り、制御部40は、ターゲットである物体までの距離や、物体の向きなどを推定する処理を行う。
Next, the process shown in FIG. 5 will be described.
When the process proceeds to step S12, the control unit 40 controls the laser irradiation unit 32 to irradiate the laser.
Next, in step S13, the second camera 34 takes a picture while the laser is being irradiated. The control unit 40 acquires the image from the second camera 34.
Next, in step S14, the control unit 40 performs a process of estimating the three-dimensional structure of the target based on the image acquired in step S13. Specifically, as described above, the control unit 40 performs a process of estimating the distance to the target object, the direction of the object, and the like.

次に、ステップS15において、制御部40は、ステップS14の処理によってターゲットの立体構造が推定可能であったか否かを判定する。立体構造が推定可能であった場合(ステップS15:YES)には、ステップS17に進む。立体構造が推定可能ではなかった場合(ステップS15:NO)には、先端部31の位置を変えて再度画像取得を行うためにステップS16に進む。
次に、ステップS16に進んだ場合、制御部40は、アームを少し下げるよう制御する。言い換えれば、制御部40は、先端部31の位置が今までよりも少し(所定量)下の位置になるよう、関節を動かす制御を行う。これにより、先端部31はターゲットである物体により近づくため、より良い画像(第2カメラ34による画像)を取得できるようになることが期待される。ステップS16の次には、ステップS12に戻る。
Next, in step S15, the control unit 40 determines whether or not the three-dimensional structure of the target can be estimated by the process of step S14. If the three-dimensional structure can be estimated (step S15: YES), the process proceeds to step S17. If the three-dimensional structure cannot be estimated (step S15: NO), the process proceeds to step S16 in order to change the position of the tip portion 31 and perform image acquisition again.
Next, when the process proceeds to step S16, the control unit 40 controls the arm to be slightly lowered. In other words, the control unit 40 controls the movement of the joint so that the position of the tip portion 31 is slightly (predetermined amount) lower than before. As a result, the tip portion 31 comes closer to the target object, and it is expected that a better image (image taken by the second camera 34) can be acquired. After step S16, the process returns to step S12.

次に、ステップS17において、制御部40は、ステップS14における処理で推定された結果に基づいて、ターゲットである物体をつかむための高さと角度とを算出する。この算出結果に基づいて、制御部40は、ターゲットである物体をつかむ位置まで先端部31を移動させるための、各関節の変位量を求める。
次に、ステップS18において、制御部40は、ステップS17で求めた結果に基づいて各関節の動きを制御し、アームを動かすことによって先端部31を所望の位置に移動させる。そして、制御部40は、フィンガー33がターゲットの物体をつかむ動作をするよう制御する。
Next, in step S17, the control unit 40 calculates the height and angle for grasping the target object based on the result estimated in the process in step S14. Based on this calculation result, the control unit 40 obtains the displacement amount of each joint for moving the tip portion 31 to the position where the target object is grasped.
Next, in step S18, the control unit 40 controls the movement of each joint based on the result obtained in step S17, and moves the tip portion 31 to a desired position by moving the arm. Then, the control unit 40 controls the finger 33 to perform an operation of grasping the target object.

次に、ステップS19において、制御部40は、第2カメラ34が撮影した画像を取得し、その画像を解析する。制御部40は具体的には、フィンガー33がターゲットの物体をうまくつかめているか否かを解析する。
次に、ステップS20において、制御部40は、ステップS19における解析結果に基づいて、ターゲットをつかむことに成功しているか否かを判定する。ターゲットをつかむことに成功している場合(ステップS20:YES)、ステップS22に進む。ターゲットをつかむことに成功していない場合(ステップS20:NO)、ステップS21に進む。
ステップS21に進んだ場合、制御部40は、先端部31を上げる(ターゲットの物体から離れる)よう、アームを移動させたうえで、再度ターゲットをつかむための一連の手順を実行するためにステップS12の処理に戻る。
Next, in step S19, the control unit 40 acquires an image taken by the second camera 34 and analyzes the image. Specifically, the control unit 40 analyzes whether or not the finger 33 has successfully grasped the target object.
Next, in step S20, the control unit 40 determines whether or not the target has been successfully grasped based on the analysis result in step S19. If the target is successfully grabbed (step S20: YES), the process proceeds to step S22. If the target has not been successfully grabbed (step S20: NO), the process proceeds to step S21.
When the process proceeds to step S21, the control unit 40 moves the arm so as to raise the tip portion 31 (away from the target object), and then performs a series of steps for grasping the target again in step S12. Return to the processing of.

ステップS22に進んだ場合、フィンガー33がターゲットの物体をつかんだ状態で、制御部40は、先端部31を上げるようアームを移動させる制御を行う。 When the process proceeds to step S22, the control unit 40 controls to move the arm so as to raise the tip portion 31 while the finger 33 grabs the target object.

図6のステップS23からの処理は、ロボット1がつかんだ物体をプレース位置まで運んで置く動作を行うための制御である。
ステップS23において、制御部40は、第1カメラ14が撮影した画像を取得する。
次に、ステップS24において、制御部40は、ステップS23で取得した画像に基づいて、座標変換処理(アラウンドビュー処理)および合成処理を行い、平面図画像を生成する。
次に、ステップS25において、制御部40は、ステップS24で生成した平面図画像上で、つかんでいる物体を置くためのプレース位置を認識する。具体的には、制御部40は、予め取得しているプレース位置の特徴を用いて自動的にプレース位置を認識する。あるいは、制御部40は、GUIによりユーザーが指定するプレース位置の情報を把握する。あるいは、制御部40は、台座11を基準としたときのプレース位置の座標情報を予め与えられていてもよい。
The process from step S23 in FIG. 6 is a control for carrying the object grasped by the robot 1 to the place position and placing it.
In step S23, the control unit 40 acquires an image taken by the first camera 14.
Next, in step S24, the control unit 40 performs coordinate conversion processing (around view processing) and composition processing based on the image acquired in step S23 to generate a plan view image.
Next, in step S25, the control unit 40 recognizes the place position for placing the object being grasped on the plan view image generated in step S24. Specifically, the control unit 40 automatically recognizes the place position by using the feature of the place position acquired in advance. Alternatively, the control unit 40 grasps the information of the place position designated by the user by the GUI. Alternatively, the control unit 40 may be given the coordinate information of the place position with respect to the pedestal 11 in advance.

次に、ステップS26において、制御部40は、先端部31を現在位置からプレース位置の上部まで移動させる計画を作成する。ここでの移動は、先端部31をx−y平面に平行な方向に移動させるものである。具体的には、制御部40は、各関節を変位させる量を求める。
次に、ステップS27において、制御部40は、ステップS26で作成した計画に基づいて、先端部31を移動させる制御を行う。
Next, in step S26, the control unit 40 creates a plan for moving the tip portion 31 from the current position to the upper part of the place position. The movement here is to move the tip portion 31 in a direction parallel to the xy plane. Specifically, the control unit 40 obtains an amount of displacement of each joint.
Next, in step S27, the control unit 40 controls to move the tip portion 31 based on the plan created in step S26.

次に、ステップS28において、制御部40は、第2カメラ34で撮影した画像を取得する。
次に、ステップS29において、制御部40は、ステップS28で取得した画像に基づいて、プレースの位置を認識する処理を行う。ここでも、制御部40は、予め取得しているプレース位置の特徴を用いて自動的にプレース位置を認識する。
次に、ステップS30において、制御部40は、アームおよび先端部31の位置が、ステップS29で認識したプレースの位置に対して適切であるか否かを判定する。アームおよび先端部31の位置が適切である場合(ステップS30:YES)には、図7のステップS32に進む。アームおよび先端部31の位置が適切はない場合(ステップS30:NO)には、ステップS31に進む。
ステップS31に進んだ場合、制御部40は、ステップS29での認識処理の結果として、プレースの位置が第2カメラの視野内であったか否かを判定する。言い換えれば、制御部40は、ステップS28で第2カメラ34から取得した画像内に、プレースが写っているか否かを判定する。
プレースの位置が第2カメラの視野内である場合(ステップS31:YES)には、先端部31を再度移動させるためにステップS26に移る。
プレースの位置が第2カメラの視野内ではない場合(ステップS31:NO)には、第1カメラ14で広範囲の画像を撮影しなおす処理からやり直すためにステップS23に移る。
Next, in step S28, the control unit 40 acquires an image taken by the second camera 34.
Next, in step S29, the control unit 40 performs a process of recognizing the position of the place based on the image acquired in step S28. Here, too, the control unit 40 automatically recognizes the place position by using the feature of the place position acquired in advance.
Next, in step S30, the control unit 40 determines whether or not the positions of the arm and the tip portion 31 are appropriate for the position of the place recognized in step S29. If the positions of the arm and the tip portion 31 are appropriate (step S30: YES), the process proceeds to step S32 of FIG. If the positions of the arm and the tip portion 31 are not appropriate (step S30: NO), the process proceeds to step S31.
When the process proceeds to step S31, the control unit 40 determines whether or not the position of the place is within the field of view of the second camera as a result of the recognition process in step S29. In other words, the control unit 40 determines whether or not the place is included in the image acquired from the second camera 34 in step S28.
When the position of the place is within the field of view of the second camera (step S31: YES), the process proceeds to step S26 in order to move the tip portion 31 again.
If the position of the place is not within the field of view of the second camera (step S31: NO), the process proceeds to step S23 in order to start over from the process of retaking a wide range of images with the first camera 14.

そして、図7のステップS32に進んだ場合、制御部40は、アームを下げて先端部31がプレースの位置に近付くようにする。
そして、ステップS33において、制御部40は、フィンガー33がつかんでいた対象物体を離すように制御することによって、その対象物体(ターゲット)をプレースに格納する。
ステップS33で、ロボット1がターゲットをつかみプレースに格納するまでの一連の動きの制御の全体(図4から図7までのフローチャート)を終了する。
Then, when the process proceeds to step S32 in FIG. 7, the control unit 40 lowers the arm so that the tip portion 31 approaches the position of the place.
Then, in step S33, the control unit 40 stores the target object (target) in the place by controlling the finger 33 to release the target object.
In step S33, the entire control of a series of movements (flow charts from FIG. 4 to FIG. 7) until the robot 1 grabs the target and stores it in the place is completed.

以上説明したように、このフローチャートに示した手順では、第1カメラおよび第2カメラは、互いに異なるフェーズにおいて対象物を撮影し、制御部は、それらのフェーズごとに、第1カメラが撮影した第1画像に基づいてアームの向きを変えるよう制御し、第2カメラが撮影した第2画像に基づいてアームの向きを変えるよう制御する。 As described above, in the procedure shown in this flowchart, the first camera and the second camera photograph the object in different phases, and the control unit captures the object by the first camera in each of the phases. It is controlled to change the direction of the arm based on one image, and is controlled to change the direction of the arm based on the second image taken by the second camera.

以上説明したように、本実施形態によると、複数の第1カメラ14が広域の画像を撮影する。制御部40は、第1カメラで撮影された画像を座標変換し平面図の部分画像とする(アラウンドビュー処理)。また、制御部40は、それらの複数の部分画像を合成して1枚の平面図画像を生成する。複数の画像から平面図画像を合成することにより、ロボット1自体(台座11等)による死角のない平面図画像を取得できる。つまり、制御部40は、ロボット1の周辺の状況を把握することができる。また、制御部40は、平面図画像内における台座11を認識する。これにより、制御部40は、周辺の状況と、ロボット1自身の台座の位置および向きと、各アームの向きおよび先端部31の位置および向きをすべて関連付けて把握することができる。即ち、制御部40は、ロボット1および周辺の位置情報を正確に把握することができる。つまり、例えばユーザーがロボット1を持ち運んだり向きを変えたりした場合にも、ロボット1の制御部40は、周辺(作業環境)に固定設置されたカメラ等に頼ることなく、自己の位置を自動的に把握することができる。即ち、ロボット1の位置等を変えても、そのための再調整の操作を行う必要がない。 As described above, according to the present embodiment, the plurality of first cameras 14 capture a wide area image. The control unit 40 transforms the coordinates of the image taken by the first camera into a partial image of the plan view (around view processing). Further, the control unit 40 combines the plurality of partial images to generate one plan view image. By synthesizing the plan view images from a plurality of images, it is possible to acquire a plan view image without a blind spot by the robot 1 itself (pedestal 11 or the like). That is, the control unit 40 can grasp the situation around the robot 1. Further, the control unit 40 recognizes the pedestal 11 in the plan view image. As a result, the control unit 40 can grasp the surrounding situation, the position and orientation of the pedestal of the robot 1 itself, the orientation of each arm, and the position and orientation of the tip portion 31 in association with each other. That is, the control unit 40 can accurately grasp the position information of the robot 1 and its surroundings. That is, for example, even when the user carries or changes the orientation of the robot 1, the control unit 40 of the robot 1 automatically positions itself without relying on a camera or the like fixedly installed in the surrounding area (work environment). Can be grasped. That is, even if the position of the robot 1 is changed, it is not necessary to perform the readjustment operation for that purpose.

また、本実施形態によると、先端部31に固定された第2カメラで撮影した画像を用いて、制御部40が操作対象物体や場所等を認識する。つまり、ロボットとカメラとの位置関係を設定する操作を行う必要がない。 Further, according to the present embodiment, the control unit 40 recognizes the operation target object, the place, and the like by using the image taken by the second camera fixed to the tip portion 31. That is, it is not necessary to perform an operation for setting the positional relationship between the robot and the camera.

また、本実施形態によると、ロボット1は、比較的広域を撮影する第1カメラと、アームの先端部31に固定設置された第2カメラとを併用する。これにより、ロボット1は、周辺全体を見渡して把握しつつ、先端の操作対象物体等を細かく認識することが可能となる。つまり、ロボット1は正確な作業を行えるようになる。加えて、第1カメラ14の解像度や精度は、遠距離から対象物の存在する位置が認識できる程度のものであればよい。また、第2カメラ34の解像度や精度は、近距離から対象物の形状を認識できる程度のものであればよい。これら2種類のカメラの使い分けにより、必ずしも、精度や解像度が特別に高いカメラを用いずともロボット1は正確な作業を実施できる。カメラモジュールの選択の自由度が広がる。
操作対象物体等に近づいて詳細な状況を把握することと、全体を広く見渡すこととは、背反する要求であるが、本実施形態のロボット1は、固定カメラを設置することなく、それら両方の要求を満たすことが可能となる。
また、対象物体がカメラの視野の外に出てしまい、ロボット1が対象物体を見失った場合でも、アームを動かすことにより、カメラがアームとともに動き再度対象物体を捉えることができる。死角が発生した場合でもアームの動きによって解消できる可能性があるため、カメラを固定する際の配置や角度に自由度がある。
以上のように、本実施例によれば、比較的小型のロボットの可搬性や機動性を損なうことなく、ロボット動作の自動化を実現することができる。
Further, according to the present embodiment, the robot 1 uses a first camera that captures a relatively wide area and a second camera that is fixedly installed at the tip end portion 31 of the arm. As a result, the robot 1 can finely recognize the object to be operated at the tip while looking over the entire periphery and grasping it. That is, the robot 1 can perform accurate work. In addition, the resolution and accuracy of the first camera 14 may be such that the position where the object exists can be recognized from a long distance. Further, the resolution and accuracy of the second camera 34 may be such that the shape of the object can be recognized from a short distance. By properly using these two types of cameras, the robot 1 can perform accurate work without necessarily using a camera having particularly high accuracy and resolution. The degree of freedom in selecting the camera module is expanded.
It is a contradictory requirement to get close to the object to be operated and grasp the detailed situation and to have a wide view of the whole, but the robot 1 of the present embodiment has both of them without installing a fixed camera. It becomes possible to meet the demand.
Further, even if the target object goes out of the field of view of the camera and the robot 1 loses sight of the target object, by moving the arm, the camera moves together with the arm and can catch the target object again. Even if a blind spot occurs, it may be eliminated by the movement of the arm, so there is a degree of freedom in the arrangement and angle when fixing the camera.
As described above, according to the present embodiment, it is possible to realize the automation of the robot operation without impairing the portability and maneuverability of the relatively small robot.

[第2実施形態]
次に、第2実施形態について説明する。第2実施形態の特徴は、先端部31に複数のレーザー照射部が設けられており、それら複数のレーザー照射部のうちの少なくとも1つは、他のレーザー照射部とは異なる方向にレーザーを照射することである。
[Second Embodiment]
Next, the second embodiment will be described. The feature of the second embodiment is that a plurality of laser irradiation portions are provided at the tip portion 31, and at least one of the plurality of laser irradiation portions irradiates the laser in a direction different from that of the other laser irradiation portions. It is to be.

図8は、本実施形態による特徴的部分である先端部31bの詳細な構成を示す概略図(側面図)である。また、同図は、本実施形態での複数のレーザー照射部の配置と、レーザーが照射される面との関係を示している。図示するように、先端部31bは、複数のレーザー照射部を備える。具体的には、先端部31bは、レーザー照射部32−1および32−2を有している。また、先端部31bは、第2カメラ34を備えている。なお、先端部31bに備えられているフィンガー33をこの図では省略している。 FIG. 8 is a schematic view (side view) showing a detailed configuration of the tip portion 31b, which is a characteristic portion according to the present embodiment. Further, the figure shows the relationship between the arrangement of the plurality of laser irradiation units in the present embodiment and the surface irradiated with the laser. As shown in the figure, the tip portion 31b includes a plurality of laser irradiation portions. Specifically, the tip portion 31b has laser irradiation portions 32-1 and 32-2. Further, the tip portion 31b includes a second camera 34. The finger 33 provided on the tip portion 31b is omitted in this figure.

図示するように、レーザー照射部32−1が照射する方向(破線Aで示す)と、レーザー照射部32−2が照射する方向(破線Bで示す)とは、異なる。つまり、複数のレーザー照射部のうちの少なくとも1つは、他のレーザー照射部とは異なる方向にレーザーを照射する。これら2つのレーザー照射部32−1および32−2は、設置面5に投射される。このとき、先端部31bと設置面5との距離に応じて、この2本のレーザーによって照射されるポイント間の設置面上での距離が異なる。 As shown in the figure, the direction of irradiation by the laser irradiation unit 32-1 (indicated by the broken line A) and the direction of irradiation by the laser irradiation unit 32-2 (indicated by the broken line B) are different. That is, at least one of the plurality of laser irradiation units irradiates the laser in a direction different from that of the other laser irradiation units. These two laser irradiation units 32-1 and 32-2 are projected onto the installation surface 5. At this time, the distance on the installation surface between the points irradiated by the two lasers differs depending on the distance between the tip portion 31b and the installation surface 5.

図9および図10は、図8に示したレーザー照射部がそれぞれ設置面5に投射するパターンの例を示す概略図である。図9は、レーザー照射部と設置面とが、ある距離だけ離れている場合の、設置面5に投射されるパターンを示す。図10は、レーザー照射部が図9のときよりも設置面に近づいた場合の、設置面5に投射されるパターンを示す。
図9において、上側の十字型(斜めの十字型)は、レーザー照射部32−2によって照射されているパターンである。また、下側の十字型(縦線および横線からなる十字型)は、レーザー照射部32−1によって照射されているパターンである。
図10において、破線で示す十字型は、図9において上側の十字型が投射されていた位置を示す。また、2個の実線による十字型のうち、上側の十字型(斜めの十字型)は、レーザー照射部32−2によって照射されているパターンである。また、下側の十字型(縦線および横線からなる十字型)は、レーザー照射部32−1によって照射されているパターンである。
このように、図9の場合と図10の場合とで、投射されるパターン間の距離が異なる。言い換えれば、投射されるパターンにおける両者間の距離を測定することにより、レーザー照射部の位置から投射面の位置までの距離を推定することができる。
9 and 10 are schematic views showing an example of a pattern in which the laser irradiation unit shown in FIG. 8 projects onto the installation surface 5, respectively. FIG. 9 shows a pattern projected on the installation surface 5 when the laser irradiation unit and the installation surface are separated by a certain distance. FIG. 10 shows a pattern projected on the installation surface 5 when the laser irradiation unit is closer to the installation surface than in FIG. 9.
In FIG. 9, the upper cross shape (diagonal cross shape) is a pattern irradiated by the laser irradiation unit 32-2. The lower cross shape (cross shape composed of vertical and horizontal lines) is a pattern irradiated by the laser irradiation unit 32-1.
In FIG. 10, the cross shape shown by the broken line indicates the position where the upper cross shape is projected in FIG. 9. Of the two solid crosses, the upper cross (diagonal cross) is the pattern irradiated by the laser irradiation unit 32-2. The lower cross shape (cross shape composed of vertical and horizontal lines) is a pattern irradiated by the laser irradiation unit 32-1.
As described above, the distance between the projected patterns is different between the case of FIG. 9 and the case of FIG. In other words, the distance from the position of the laser irradiation unit to the position of the projection surface can be estimated by measuring the distance between the two in the projected pattern.

図11は、先端部31bの詳細な構成を示す概略図(側面図)である。また、同図は、本実施形態での複数のレーザー照射部の配置と、レーザーが照射される面との関係を示している。この図を参照しながら、次に、先端部31bと設置面5との間の距離を測定する方法を説明する。 FIG. 11 is a schematic view (side view) showing a detailed configuration of the tip portion 31b. Further, the figure shows the relationship between the arrangement of the plurality of laser irradiation units in the present embodiment and the surface irradiated with the laser. Next, a method of measuring the distance between the tip portion 31b and the installation surface 5 will be described with reference to this figure.

図示するように、先端部31bには、2個のレーザー照射部32−1および32−2が設けられている。レーザー照射部32−1とレーザー照射部32−2との光源間の距離はxである。レーザー照射部32−1からは真下に(設置面5に対して垂直に)レーザー光(光線A)が照射されるようになっている。また、レーザー照射部32−2からは斜め方向に、つまり水平面(例えば先端部31bの底面)から下方向にθの角度の方向に、レーザー光(光線B)が照射されるようになっている。レーザー照射部32−1および32−2の位置およびレーザー照射方向が変わらない限り、xおよびθの値は不変である。 As shown in the figure, the tip portion 31b is provided with two laser irradiation portions 32-1 and 32-2. The distance between the light source of the laser irradiation unit 32-1 and the laser irradiation unit 32-2 is x. The laser beam (ray A) is emitted directly below (perpendicular to the installation surface 5) from the laser irradiation unit 32-1. Further, the laser beam (ray B) is irradiated from the laser irradiation unit 32-2 in an oblique direction, that is, in a direction of an angle θ downward from the horizontal plane (for example, the bottom surface of the tip portion 31b). .. As long as the positions of the laser irradiation units 32-1 and 32-2 and the laser irradiation direction do not change, the values of x and θ do not change.

先端部31bに取り付けられた第2カメラ34は、下方向を、即ち設置面5の方向を撮影する。制御部40は、第2カメラ34が撮影した画像を取得し、次のように、先端部31bの底面(ロボットの先端部)から設置面5までの距離を求める。つまり、制御部40は、撮影された画像を基にスケーリング処理を行い、光線Aの設置面5への照射位置のポイント(レーザー照射部32−1からの照射)と、光線Bの設置面5への照射位置のポイント(レーザー照射部32−2からの照射)との距離を求める。その距離をdとする。また、既に述べたように両光源間の距離はxであるので、先端部31bの底面から設置面5までの距離zを、制御部40は、次の式により計算する。ここで、tan()は正接関数である。
z=(x−d)・tan(θ)
The second camera 34 attached to the tip portion 31b photographs the downward direction, that is, the direction of the installation surface 5. The control unit 40 acquires an image taken by the second camera 34, and obtains the distance from the bottom surface of the tip portion 31b (the tip portion of the robot) to the installation surface 5 as follows. That is, the control unit 40 performs scaling processing based on the captured image, and the point of the irradiation position of the light ray A on the installation surface 5 (irradiation from the laser irradiation unit 32-1) and the installation surface 5 of the light ray B. The distance from the point of the irradiation position to (irradiation from the laser irradiation unit 32-2) is obtained. Let the distance be d. Further, since the distance between the two light sources is x as already described, the control unit 40 calculates the distance z from the bottom surface of the tip portion 31b to the installation surface 5 by the following formula. Here, tan () is a tangent function.
z = (x−d) · tan (θ)

以上のように、先端部31bに、真下に(垂直に)照射するように取り付けられたレーザー照射部32−1と、斜めに(角度θで)照射するように取り付けられたレーザー32−2とが、それぞれ設置面5にレーザー光を照射する。そして、第2カメラ34が撮影した画像を基に、制御部40は、設置面5に照射された2点のレーザー光を認識する。制御部40はこの2点間の距離に基づいて先端部31bの底面から設置面5までの距離(高さ)を測定する。これにより、制御部40は、フィンガー33を用いて対象物をつかむ際の高さ方向の移動量を求めることができる。 As described above, the laser irradiation unit 32-1 attached to the tip portion 31b so as to irradiate directly below (vertically), and the laser 32-2 attached so as to irradiate diagonally (at an angle θ). However, each of the installation surfaces 5 is irradiated with a laser beam. Then, based on the image taken by the second camera 34, the control unit 40 recognizes the two laser beams irradiated on the installation surface 5. The control unit 40 measures the distance (height) from the bottom surface of the tip portion 31b to the installation surface 5 based on the distance between these two points. As a result, the control unit 40 can determine the amount of movement in the height direction when grasping the object by using the finger 33.

なお、次のような変形例によって制御部40が先端部31bの高さを測定するようにしてもよい。例えば、レーザー照射部32−1を先端部31bに取り付ける際、照射方向が真下(先端部31bの底面に対して垂直)でなくてもよい。レーザー照射部32−1の照射方向が斜め(但し、既知の角度での照射)であっても、適宜、制御部40は高さを算出することができる。また、例えば、設置面5に照射したレーザー光を認識するために、第2カメラ34で撮影した画像の代わりに、第1カメラ14Lや14Rで撮影した画像を用いてもよい。 The height of the tip portion 31b may be measured by the control unit 40 according to the following modification. For example, when the laser irradiation unit 32-1 is attached to the tip portion 31b, the irradiation direction does not have to be directly below (perpendicular to the bottom surface of the tip portion 31b). Even if the irradiation direction of the laser irradiation unit 32-1 is oblique (however, irradiation at a known angle), the control unit 40 can appropriately calculate the height. Further, for example, in order to recognize the laser beam emitted to the installation surface 5, an image taken by the first camera 14L or 14R may be used instead of the image taken by the second camera 34.

また、レーザー照射部32−1および32−2が照射するレーザー光が交差後に設置面5に照射されてもよい。
図12は、2本のレーザー光が交差した後に設置面に照射される例を示す先端部31bの概略図(側面図)である。図示するように、レーザー照射部32−1は、真下に(設置面5に対して垂直に)レーザー光(光線A)を照射する。また、レーザー照射部32−2は、先端部31bからの角度θで斜め下方向にレーザー光(光線B)を照射する。光線AとBとは交差した後に、設置面5に照射される。設置面5における照射ポイント間の距離はdである。また、レーザー照射部32−1と32−2との光源間の距離はxである。この場合、制御部40は、光線AおよびBが交差した後で設置面5に照射されていることを前提として、先端部31bの底面から設置面5までの距離zを、次の式により計算する。
z=(x+d)・tan(θ)
Further, the installation surface 5 may be irradiated with the laser light emitted by the laser irradiation units 32-1 and 32-2 after crossing.
FIG. 12 is a schematic view (side view) of the tip portion 31b showing an example in which the installation surface is irradiated after the two laser beams intersect. As shown in the figure, the laser irradiation unit 32-1 irradiates the laser beam (ray A) directly below (perpendicular to the installation surface 5). Further, the laser irradiation unit 32-2 irradiates the laser beam (light ray B) diagonally downward at an angle θ from the tip portion 31b. After the rays A and B intersect, the installation surface 5 is irradiated. The distance between the irradiation points on the installation surface 5 is d. The distance between the light sources of the laser irradiation units 32-1 and 32-2 is x. In this case, the control unit 40 calculates the distance z from the bottom surface of the tip portion 31b to the installation surface 5 by the following formula on the assumption that the installation surface 5 is irradiated after the light rays A and B intersect. do.
z = (x + d) · tan (θ)

以上説明した通り、本実施形態によれば、制御部40は対象物をつかむ位置を自動的に算出できるため、ロボットの設置場所を変更した場合にも、対象物をつかむ位置を設定する操作を行う必要がない。つまり、小型のロボットの可搬性を損なうことなく、ロボット動作の自動化を実現できる。 As described above, according to the present embodiment, the control unit 40 can automatically calculate the position for grasping the object. Therefore, even if the installation location of the robot is changed, the operation for setting the position for grasping the object can be performed. No need to do. That is, it is possible to realize automation of the robot operation without impairing the portability of the small robot.

[第3実施形態]
次に、第3実施形態について説明する。第3実施形態の特徴は、ロボットが自律移動部を備えている点である。これにより、ロボットは、設置面に固定して置かれるだけではなく、広範囲に移動することもできる。
[Third Embodiment]
Next, the third embodiment will be described. The feature of the third embodiment is that the robot is provided with an autonomous moving unit. As a result, the robot can be moved not only fixedly on the installation surface but also over a wide range.

図13は、本実施形態によるロボット2の移動動作の概略を示す概略図である。図示する例では、ロボット2aは移動前の位置を表し、ロボット2bは移動後の位置を表す。同図に示すように、ロボット2が稼働する場所には、レール201が敷設されている。またレール201の近くに、ロボット2が操作対象とする対象物202が置かれている。ロボット2は、例えばモーターによって車輪(不図示)を駆動することにより、レール201に沿って前後方向に移動することができる。あるいは、ロボット2は、レール201上だけでなく、車輪(例えば4輪)で平面上を任意の方向に自由に移動できるようになっていてもよい。ロボット2の制御部40が車輪を駆動するよう制御することにより、ロボット2は対象物202に近付くことができる。また、ロボット2は、状況に応じて、所望の位置に移動することができる。 FIG. 13 is a schematic view showing an outline of the moving operation of the robot 2 according to the present embodiment. In the illustrated example, the robot 2a represents the position before the movement, and the robot 2b represents the position after the movement. As shown in the figure, a rail 201 is laid at a place where the robot 2 operates. Further, an object 202 to be operated by the robot 2 is placed near the rail 201. The robot 2 can move in the front-rear direction along the rail 201 by driving the wheels (not shown) by, for example, a motor. Alternatively, the robot 2 may be able to freely move in any direction not only on the rail 201 but also on a plane by wheels (for example, four wheels). By controlling the control unit 40 of the robot 2 to drive the wheels, the robot 2 can approach the object 202. Further, the robot 2 can move to a desired position depending on the situation.

なお、上記の、車輪およびそれらの車輪を駆動する機構を、「自律移動部」と呼ぶ。即ち、自律移動部は、ロボットが設置面を自律移動するための機能である。自律移動部は、制御部40によって制御される。自動移動部が機能することにより、アームが届かない位置に対象物やプレースがある場合や、第1カメラ14から目的物やプレースが視認できない場合にも、ロボット2は、自律的に所望の対象物あるいはプレースの近傍に移動することができる。 The wheels and the mechanism for driving those wheels are referred to as "autonomous moving units". That is, the autonomous movement unit is a function for the robot to autonomously move on the installation surface. The autonomous movement unit is controlled by the control unit 40. Due to the function of the automatic moving unit, the robot 2 autonomously performs a desired target even when there is an object or place in a position where the arm cannot reach, or when the object or place cannot be visually recognized from the first camera 14. You can move to the vicinity of an object or place.

図14,図15,図16,図17は、本実施におけるロボット2の処理の手順を示すフローチャートである。このフローチャートは、ロボット2がターゲットの物体をつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すものである。図14,図15,図16,図17は、結合子によって結合された1つのフローチャートである。以下、このフローチャートに沿って、処理手順について説明する。 14, FIG. 15, FIG. 16, and FIG. 17 are flowcharts showing the processing procedure of the robot 2 in the present implementation. This flowchart shows a processing procedure for controlling an operation in which the robot 2 grabs a target object and carries it to a place position. 14, 15, 16, 16 and 17 are one flowchart connected by a coupler. Hereinafter, the processing procedure will be described with reference to this flowchart.

図14のステップS101からS105までの処理は、それぞれ対応する図4のステップS1からS5までの処理と同様のものである。
ステップS106において、制御部40は、ターゲットにアームが届く範囲にあるか否かを判定する。なお、ターゲットの認識処理(ステップS105)を行った結果としてターゲットが見つからない場合も、制御部40は、ターゲットにアームが届く範囲にはないと判断する。ターゲットにアームが届く範囲にあると判断した場合(ステップS105:YES)、ステップS108に進む。ターゲットにアームが届く範囲にないと判断した場合(ステップS105:NO)、ロボットを移動させてターゲットを認識しなおすために、ステップS107に進む。
The processes from steps S101 to S105 in FIG. 14 are the same as the corresponding processes from steps S1 to S5 in FIG.
In step S106, the control unit 40 determines whether or not the arm can reach the target. Even if the target is not found as a result of performing the target recognition process (step S105), the control unit 40 determines that the arm is not within the reach of the target. If it is determined that the arm is within reach of the target (step S105: YES), the process proceeds to step S108. If it is determined that the arm is not within reach of the target (step S105: NO), the process proceeds to step S107 in order to move the robot and re-recognize the target.

ステップS107に進んだ場合、制御部40は、自律移動部を制御し、ロボット2自身を移動させる。具体的には、ロボット2の車輪を動かすことにより、ロボット2を所定の位置まで移動させる。本ステップの終了後は、ステップS101に戻って処理を続ける。 When the process proceeds to step S107, the control unit 40 controls the autonomous movement unit and moves the robot 2 itself. Specifically, by moving the wheels of the robot 2, the robot 2 is moved to a predetermined position. After the end of this step, the process returns to step S101 to continue the process.

ステップS108に進んだ場合、ステップS108からS111までにおいて、制御部40は、アームを移動させる制御を行い、第2カメラ34から取得した画像に基づいてターゲットの位置を認識する。この処理は、図4のステップS6からS9までの処理と同様のものである。
次に、ステップS112において、制御部40は、図4のステップS10と同様の判断を行い、判断結果に応じて分岐する。即ち、先端部31の位置(アームの位置)が適切である場合(ステップS112:YES)には、図15のステップS114に進む。先端部31の位置が適切ではない場合(ステップS112:NO)には、位置を補正するためにS113に進む。
ステップS113に進んだ場合には、制御部40は、図4のステップS11と同様の判断を行い、判断結果に応じて分岐する。即ち、ターゲットが第2カメラの視野内である場合(ステップS113:YES)には、アームの再移動による位置の補正を行うために、ステップS108に進む。ターゲットが第2カメラの視野内ではない場合(ステップS113:NO)には、第1カメラによるターゲットの捕捉からやり直すために、ステップS101に戻る。
When the process proceeds to step S108, in steps S108 to S111, the control unit 40 controls to move the arm and recognizes the position of the target based on the image acquired from the second camera 34. This process is the same as the process from steps S6 to S9 in FIG.
Next, in step S112, the control unit 40 makes the same determination as in step S10 of FIG. 4, and branches according to the determination result. That is, when the position of the tip portion 31 (position of the arm) is appropriate (step S112: YES), the process proceeds to step S114 of FIG. If the position of the tip portion 31 is not appropriate (step S112: NO), the process proceeds to S113 to correct the position.
When the process proceeds to step S113, the control unit 40 makes the same determination as in step S11 of FIG. 4, and branches according to the determination result. That is, when the target is within the field of view of the second camera (step S113: YES), the process proceeds to step S108 in order to correct the position by removing the arm. If the target is not within the field of view of the second camera (step S113: NO), the process returns to step S101 in order to start over from capturing the target by the first camera.

図15のステップS114からS124までの処理は、それぞれ、図5のステップS12からS22までの処理と同様のものである。図15のステップS124の処理が終了すると、ステップS125に移る。 The processes of steps S114 to S124 of FIG. 15 are the same as the processes of steps S12 to S22 of FIG. 5, respectively. When the process of step S124 of FIG. 15 is completed, the process proceeds to step S125.

図16のステップS125からS127までの処理は、それぞれ、図6のステップS23からS25までの処理と同様のものである。
次に、ステップS128において、制御部40は、プレースにアームが届く範囲にあるか否かを判定する。なお、プレースの認識処理(ステップS127)を行った結果としてプレースが見つからない場合も、制御部40は、プレースにアームが届く範囲にはないと判断する。プレースにアームが届く範囲にあると判断した場合(ステップS128:YES)、ステップS130に進む。プレースにアームが届く範囲にないと判断した場合(ステップS128:NO)、ロボットを移動させてターゲットを認識しなおすために、ステップS129に進む。
The processes from steps S125 to S127 in FIG. 16 are the same as the processes from steps S23 to S25 in FIG. 6, respectively.
Next, in step S128, the control unit 40 determines whether or not the arm can reach the place. Even if the place is not found as a result of performing the place recognition process (step S127), the control unit 40 determines that the place is not within the reach of the arm. If it is determined that the arm is within reach of the place (step S128: YES), the process proceeds to step S130. If it is determined that the arm is not within reach of the place (step S128: NO), the process proceeds to step S129 in order to move the robot and re-recognize the target.

ステップS129に進んだ場合、制御部40は、自律移動部を制御し、ロボット2自身を移動させる。具体的には、ロボット2の車輪を動かすことにより、ロボット2を所定の位置まで移動させる。本ステップの終了後は、ステップS125に戻って処理を続ける。 When the process proceeds to step S129, the control unit 40 controls the autonomous movement unit and moves the robot 2 itself. Specifically, by moving the wheels of the robot 2, the robot 2 is moved to a predetermined position. After the end of this step, the process returns to step S125 to continue the process.

ステップS130に進んだ場合、ロボット2は、ステップS130からS135までの処理を行う。ステップS130からS135までの処理は、図6のステップS26からS31までの処理と同様のものである。
ステップS134において、制御部40がアーム位置はプレースに対して適切であると判定した場合(ステップS134:YES)、図17のステップS136に移る。ステップS134において、制御部40がアーム位置はプレースに対して適切ではないと判定した場合(ステップS134:NO)、テップS135に移る。ステップS135において図6のステップS31と同様の判定を行うことにより、ステップS125またはS130のいずれか適切な側の処理に戻る。
When the process proceeds to step S130, the robot 2 performs the processes from steps S130 to S135. The processes from steps S130 to S135 are the same as the processes from steps S26 to S31 in FIG.
When the control unit 40 determines in step S134 that the arm position is appropriate for the place (step S134: YES), the process proceeds to step S136 of FIG. If the control unit 40 determines in step S134 that the arm position is not appropriate for the place (step S134: NO), the process proceeds to step S135. By making the same determination as in step S31 of FIG. 6 in step S135, the process returns to the process on the appropriate side of either step S125 or S130.

図17のステップS136に進んだ場合、ロボット2は、ステップS136およびS137の処理を行う。ステップS136およびS137の処理は、それぞれ、図7のステップS32およびS33の処理と同様のものである。
ステップS137の処理が終了すると、本フローチャート全体の処理手順を終了する。
When the process proceeds to step S136 of FIG. 17, the robot 2 performs the processes of steps S136 and S137. The processes of steps S136 and S137 are the same as the processes of steps S32 and S33 of FIG. 7, respectively.
When the process of step S137 is completed, the process procedure of the entire flowchart is completed.

以上のように、ロボット2が自律移動した場合には、その移動先において、ロボット2は、第1カメラを用いて周囲の画像を取得し直し、座標変換等を行って合成済画像を生成する。
このとき、制御部40は、平面画像(合成済画像)中の台座11の位置に基づいて、上記移動先でのアームの先端と設置面との座標関係を認識することができる。
As described above, when the robot 2 moves autonomously, the robot 2 reacquires the surrounding image using the first camera at the moving destination, performs coordinate conversion and the like to generate a synthesized image. ..
At this time, the control unit 40 can recognize the coordinate relationship between the tip of the arm and the installation surface at the moving destination based on the position of the pedestal 11 in the plane image (combined image).

以上説明したように、本実施形態によれば、任意の場所に移動した後でも、第1カメラおよび第2カメラは、必ずロボットの周囲を観測可能な位置に設置されており、ターゲットやプレースの位置を認識することができる。移動型ロボットの自律移動性を損なうことなく、ロボットの動作の自動化が可能となる。 As described above, according to the present embodiment, the first camera and the second camera are always installed at positions where the surroundings of the robot can be observed even after moving to an arbitrary place, and the target or the place can be used. The position can be recognized. It is possible to automate the movement of the mobile robot without impairing the autonomous mobility of the mobile robot.

[第4実施形態]
次に、第4実施形態について説明する。第4実施形態の特徴は、第1カメラと第2カメラを同時に使用しながらロボットを操作することである。つまり、本実施形態では、制御部40の制御により、第1カメラ14L,14Rおよび第2カメラ34は、同時に対象物を撮影する。また、制御部40は、第1カメラ14L,14Rおよび第2カメラ34によって同時にそれぞれ撮影された画像に基づいて、アームの位置や向きを変えるよう制御する。
[Fourth Embodiment]
Next, the fourth embodiment will be described. The feature of the fourth embodiment is to operate the robot while using the first camera and the second camera at the same time. That is, in the present embodiment, under the control of the control unit 40, the first cameras 14L and 14R and the second camera 34 simultaneously photograph the object. Further, the control unit 40 controls to change the position and orientation of the arm based on the images simultaneously captured by the first cameras 14L and 14R and the second camera 34, respectively.

図18,図19,図20は、本実施におけるロボット3の処理の手順を示すフローチャートである。このフローチャートは、ロボット3がターゲットの物体をつかんでプレース位置まで運ぶ動作を制御するための処理の手順を示すものである。図18,図19,図20は、結合子によって結合された1つのフローチャートである。以下、このフローチャートに沿って、処理手順について説明する。 18, FIG. 19, and FIG. 20 are flowcharts showing the processing procedure of the robot 3 in the present implementation. This flowchart shows a processing procedure for controlling an operation in which the robot 3 grabs a target object and carries it to a place position. 18, 19, and 20 are one flowchart connected by a combiner. Hereinafter, the processing procedure will be described with reference to this flowchart.

図18のステップS201からS207までの処理は、それぞれ、図4のステップS1からS7までの処理と同様である。
次に、ステップS208において、制御部40は、第1カメラ14Lおよび14Rと、第2カメラ34との両方が、それぞれ撮影を行うよう制御する。制御部40は、第1カメラ14Lおよび14Rと、第2カメラ34とから、画像を取得する。つまり、制御部40は、第1カメラ14L,14Rおよび第2カメラ34を同時に使用する。
The processes from steps S201 to S207 in FIG. 18 are the same as the processes from steps S1 to S7 in FIG. 4, respectively.
Next, in step S208, the control unit 40 controls both the first cameras 14L and 14R and the second camera 34 to take pictures, respectively. The control unit 40 acquires images from the first cameras 14L and 14R and the second camera 34. That is, the control unit 40 uses the first cameras 14L and 14R and the second camera 34 at the same time.

次に、ステップS209において、制御部40は、第1カメラ14L,14Rおよび第2カメラ34から取得した画像を用いて、ターゲットの位置を認識する。第1カメラ14L,14Rと第2カメラ34の両方を使うことにより、例えば第2カメラ34の視野内にターゲットがない場合でも、第1カメラ14L,14Rで撮影した画像を基に合成した合成済画像に基づいて、制御部40は、どの方向にターゲットがあるかを認識することができる。 Next, in step S209, the control unit 40 recognizes the position of the target using the images acquired from the first cameras 14L and 14R and the second camera 34. By using both the first cameras 14L and 14R and the second camera 34, for example, even if there is no target in the field of view of the second camera 34, the composite has been performed based on the images taken by the first cameras 14L and 14R. Based on the image, the control unit 40 can recognize in which direction the target is located.

次に、ステップS210において、制御部40は、アームの先端部31の位置がターゲットに対して適切(例えば、先端部31がターゲットの上方にあり、ターゲットに近づくことができる)か否かを判定する。アーム位置がターゲットに対して適切である場合(ステップS210:YES)には、図19のステップS211に進む。アーム位置が適切ではない場合(ステップS210:NO)には、アームの移動を再度行うためにステップS206に戻る。 Next, in step S210, the control unit 40 determines whether or not the position of the tip portion 31 of the arm is appropriate for the target (for example, the tip portion 31 is above the target and can approach the target). do. If the arm position is appropriate for the target (step S210: YES), the process proceeds to step S211 in FIG. If the arm position is not appropriate (step S210: NO), the process returns to step S206 in order to move the arm again.

図19のステップS211からステップS221までの処理は、それぞれ、図5のステップS12からステップS22までの処理と同様である。 The processes from step S211 to step S221 in FIG. 19 are the same as the processes from step S12 to step S22 in FIG. 5, respectively.

次に、図20のステップS222からステップS226までの処理は、それぞれ、図6のステップS23からステップS27までの処理と同様である。
次に、ステップS227において、制御部40は、第1カメラ14Lおよび14Rと、第2カメラ34との両方が、それぞれ撮影を行うよう制御する。制御部40は、第1カメラ14Lおよび14Rと、第2カメラ34とから、画像を取得する。
次に、ステップS228において、制御部40は、第1カメラ14L,14Rおよび第2カメラ34から取得した画像を用いて、プレースの位置を認識する。第1カメラ14L,14Rと第2カメラ34の両方を使うことにより、例えば第2カメラ34の視野内にプレースがない場合でも、第1カメラ14L,14Rで撮影した画像を基に合成した合成済画像に基づいて、制御部40は、どの方向にプレースがあるかを認識することができる。
Next, the processes from step S222 to step S226 in FIG. 20 are the same as the processes from step S23 to step S27 in FIG. 6, respectively.
Next, in step S227, the control unit 40 controls both the first cameras 14L and 14R and the second camera 34 to take pictures, respectively. The control unit 40 acquires images from the first cameras 14L and 14R and the second camera 34.
Next, in step S228, the control unit 40 recognizes the position of the place using the images acquired from the first cameras 14L and 14R and the second camera 34. By using both the first cameras 14L and 14R and the second camera 34, for example, even if there is no place in the field of view of the second camera 34, it has been synthesized based on the images taken by the first cameras 14L and 14R. Based on the image, the control unit 40 can recognize in which direction the place is located.

次に、ステップS229において、制御部40は、アームの先端部31の位置がプレースに対して適切か否かを判定する。アーム位置がプレースに対して適切である場合(ステップS229:YES)には、ステップS230に進む。アーム位置が適切ではない場合(ステップS229:NO)には、アームの移動を再度行うためにステップS225に戻る。
次のステップS230およびステップS231の処理は、それぞれ、図7のステップS32およびステップS33の処理と同様である。
ステップS231の処理が終わると、ロボット3は、このフローチャートの処理をすべて終了する。
Next, in step S229, the control unit 40 determines whether or not the position of the tip portion 31 of the arm is appropriate for the place. If the arm position is appropriate for the place (step S229: YES), the process proceeds to step S230. If the arm position is not appropriate (step S229: NO), the process returns to step S225 in order to move the arm again.
The processing of the next steps S230 and S231 is the same as the processing of steps S32 and S33 of FIG. 7, respectively.
When the process of step S231 is completed, the robot 3 ends all the processes of this flowchart.

以上のように、本実施形態では、制御部40は、第1カメラと第2カメラとを同時に使用してターゲットの位置やプレースの位置を認識する。
これにより、例えば第2カメラ34の視野内にターゲットやプレースがない場合でも、第1カメラ14L,14Rによりどの方向にターゲットやプレースがあるかを認識できる。よって、制御部40は、より早く、ターゲットやプレースの位置にアームのセンタ部を移動させるよう制御することができる。
つまり、本実施例によれば、比較的小型のロボットの可搬性や機動性を損なうことなく、ロボット動作の自動化を実現することができる。
As described above, in the present embodiment, the control unit 40 recognizes the position of the target and the position of the place by using the first camera and the second camera at the same time.
Thereby, for example, even if there is no target or place in the field of view of the second camera 34, the first cameras 14L and 14R can recognize in which direction the target or place is located. Therefore, the control unit 40 can control the center unit of the arm to move to the position of the target or the place more quickly.
That is, according to this embodiment, it is possible to realize automation of robot operation without impairing the portability and maneuverability of a relatively small robot.

[第5実施形態]
次に、第5実施形態について説明する。第5実施形態によるロボット4の特徴は、レーザー照射部が照射した設置面を撮影し、得られた画像に基づいて設置面の段差を把握・測定することである。
[Fifth Embodiment]
Next, the fifth embodiment will be described. The feature of the robot 4 according to the fifth embodiment is that the installation surface irradiated by the laser irradiation unit is photographed, and the step difference of the installation surface is grasped and measured based on the obtained image.

図21は、設置面が段差を有する場合のロボットの動作環境を示す斜視図である。図示するように、設置面5は段差を有している。その段差の上側の段が5Uであり、下側の段が5Lである。ロボット4の先端部31に設けられたレーザー照射部32は、図示する例では、十字型のパターンを形成するようにレーザー光線を照射している。第1カメラ14Lおよび14Rは、レーザー光線が照射された、段差を有する設置面を撮影する。撮影された画像に含まれるレーザー光の照射の形状により、制御部40は、設置面に段差が存在することを認識することができる。 FIG. 21 is a perspective view showing the operating environment of the robot when the installation surface has a step. As shown in the figure, the installation surface 5 has a step. The upper step of the step is 5U, and the lower step is 5L. In the illustrated example, the laser irradiation unit 32 provided at the tip end portion 31 of the robot 4 irradiates the laser beam so as to form a cross-shaped pattern. The first cameras 14L and 14R photograph the installation surface having a step, which is irradiated with a laser beam. The control unit 40 can recognize that there is a step on the installation surface based on the shape of the laser beam irradiation included in the captured image.

図22は、段差を有する設置面を第1カメラ14Lおよび14Rで撮影した画像を基に、座標変換および合成の処理を行って得られる合成済画像を示す。同図において、設置面の上側の段は5Uであり、下側の段は5Lである。また破線で示す5Gは段差を表す。 FIG. 22 shows a composited image obtained by performing coordinate transformation and compositing processing on the installation surface having a step based on the images taken by the first cameras 14L and 14R. In the figure, the upper stage of the installation surface is 5U, and the lower stage is 5L. Further, 5G shown by a broken line represents a step.

図23は、レーザー照射部32による照射方法の一例を示す概略図である。同図は、第1カメラ14Lおよび14Rが複数のタイミングで撮影した画像を合成して得られる合成済画像である。図示する例では、レーザー照射部32は、設置面5の所定の領域に、3行4列の計12個のポイント(P11からP14まで、P21からP24まで、P31からP34まで)を照射する。同図に示す例では、設置面5内の当該領域には段差や凸凹はない。ロボット4は、アームを動かすことによって先端部31に設けられるレーザー照射部32の位置を順次変えながら、第1カメラ14Lおよび14Rによる撮影を行う。つまり、まず、レーザー照射部32がP11の位置を照射しているときに第1カメラ14Lおよび14Rが撮影を行い、次に、レーザー照射部32がP12の位置を照射しているときに第1カメラ14Lおよび14Rが撮影を行い、以下同様に繰り返す。つまり、レーザー照射部32がP11からP34までの12個のポイントを順次照射しながら、各ポイントを照射しているタイミングにおいて第1カメラ14Lおよび14Rが撮影を行う。制御部40は、アームを移動させる制御と、第1カメラ14L,14Rによる撮影を実行するための制御を、順次行う。また、制御部40は、第1カメラ14Lおよび14Rから取得した画像の座標変換と左右合成を行うことにより、各照射タイミングに対応する計12枚の合成済画像を生成する。さらに、制御部40は、各ポイントの照射のタイミングに対応する12枚の画像をすべて重ね合わせる合成処理を行う。その結果、制御部40は、図23に示す12個のポイント(照射されているポイント)を含む1枚の合成済画像を生成する。 FIG. 23 is a schematic view showing an example of the irradiation method by the laser irradiation unit 32. The figure is a composited image obtained by synthesizing images taken by the first cameras 14L and 14R at a plurality of timings. In the illustrated example, the laser irradiation unit 32 irradiates a predetermined area of the installation surface 5 with a total of 12 points (P11 to P14, P21 to P24, P31 to P34) in 3 rows and 4 columns. In the example shown in the figure, there are no steps or irregularities in the area within the installation surface 5. The robot 4 takes pictures with the first cameras 14L and 14R while sequentially changing the position of the laser irradiation unit 32 provided on the tip portion 31 by moving the arm. That is, first, when the laser irradiation unit 32 is irradiating the position of P11, the first cameras 14L and 14R take a picture, and then, when the laser irradiation unit 32 is irradiating the position of P12, the first camera is taken. The cameras 14L and 14R take pictures, and so on. That is, while the laser irradiation unit 32 sequentially irradiates 12 points from P11 to P34, the first cameras 14L and 14R take pictures at the timing of irradiating each point. The control unit 40 sequentially performs control for moving the arm and control for executing shooting by the first cameras 14L and 14R. Further, the control unit 40 generates a total of 12 combined images corresponding to each irradiation timing by performing coordinate conversion and left-right composition of the images acquired from the first cameras 14L and 14R. Further, the control unit 40 performs a compositing process of superimposing all 12 images corresponding to the irradiation timing of each point. As a result, the control unit 40 generates one composite image including the 12 points (irradiated points) shown in FIG. 23.

図24は、設置面5に段差がある場合に、図23で説明したのと同じ手順で生成した合成済画像を示す概略図である。 図24に示す画像は、図23で説明したのと同じ手順で制御部40がアームを動かすよう制御して、レーザー照射装置32が図23の場合と同じ12種類の位置から順次撮影した画像を合成したものである。但し、図23の画像は段差のない設置面5に照射されたレーザー光を撮影したものであるのに対して、図24の画像は、図21にも示した段差の存在する設置面5を撮影して得られたものである。図示するように、P11からP14までの点は、図23の画像と図24の画像とで同じ位置に現れる。一方、5Gの位置の段差が存在するため、P21からP24まで、およびP31からP34までの点の位置は、図23の画像と図24の画像との間でずれる。 FIG. 24 is a schematic view showing a synthesized image generated by the same procedure as described with reference to FIG. 23 when the installation surface 5 has a step. The image shown in FIG. 24 is an image taken sequentially from the same 12 types of positions as in the case of FIG. 23 by the laser irradiation device 32 in which the control unit 40 controls to move the arm in the same procedure as described in FIG. It is a composite. However, while the image of FIG. 23 is a photograph of the laser beam radiated to the installation surface 5 having no step, the image of FIG. 24 shows the installation surface 5 having the step shown in FIG. It was obtained by shooting. As shown, the points P11 to P14 appear at the same positions in the image of FIG. 23 and the image of FIG. 24. On the other hand, since there is a step at the position of 5G, the positions of the points from P21 to P24 and from P31 to P34 are shifted between the image of FIG. 23 and the image of FIG. 24.

図25,図26,図27は、上記の点の位置のずれが生じる原理を説明するための概略図である。
図25は、ロボット4と、設置面5と、ロボット4による照射のポイントと、そのポイントを含む領域を撮影するカメラ(第1カメラ)との関係を示す側面図である。また、図26は、図25に対応する平面図である。
25, 26, and 27 are schematic views for explaining the principle that the positions of the above points are displaced.
FIG. 25 is a side view showing the relationship between the robot 4, the installation surface 5, the point of irradiation by the robot 4, and the camera (first camera) that photographs the area including the point. Further, FIG. 26 is a plan view corresponding to FIG. 25.

図示するように、ロボット4が有するレーザー照射部32が、設置面5U上の点であるP21に向けた照射を行う。しかしながら、この例では、段差があることによって、レーザー照射部32から発せられるレーザー光は、面5Uよりも低い位置にある面5L上の点を照射する。第1カメラ14は、この段差を有する面を撮影する。レーザー照射部32はP21に向けた照射を行っているが、第1カメラ14が撮影する画像は、照射されている点はあたかも設置面5上の点であるP21´の位置に存在する点であるかのような画像となる。図26(平面図)を参照すると、面5L上の点であるP21の方向を照射しているレーザー光が、別の点であるP21´の位置を照射しているかのように見える画像が生成される。 As shown in the figure, the laser irradiation unit 32 included in the robot 4 irradiates the point P21 on the installation surface 5U. However, in this example, due to the step, the laser light emitted from the laser irradiation unit 32 irradiates a point on the surface 5L located at a position lower than the surface 5U. The first camera 14 photographs the surface having the step. The laser irradiation unit 32 irradiates the P21, but the image taken by the first camera 14 is that the irradiated point exists at the position of P21', which is a point on the installation surface 5. The image looks as if it were there. With reference to FIG. 26 (plan view), an image is generated in which the laser beam irradiating the direction of P21, which is a point on the surface 5L, appears to irradiate the position of P21', which is another point. Will be done.

図27は、図25と同様の側面図であり、図25に現れる代表的な位置と位置との間の距離の情報を抽出した側面図である。設置面5を基準としたときのレーザー照射部32の光源の高さをzとする。面6(設置面5よりも下)を基準としたときのレーザー照射部32の光源の高さをz´とする。点P21から第1カメラ14のレンズの主点までの、水平方向の距離をr´とする。また、点P21´から第1カメラ14のレンズの主点までの、水平方向の距離をrとする。rとr´の差であるdが、段差が存在することによるレーザー照射位置のずれ量である。つまり、d=r´−rである。
これらの量を用いて、制御部40は、設置面5と面6との間の高さΔzを、次の式に基づいて算出することができる。
Δz=(z´−z)=d*z´/r=d*z/(r−d)
FIG. 27 is a side view similar to that of FIG. 25, and is a side view from which information on the distance between typical positions appearing in FIG. 25 is extracted. Let z be the height of the light source of the laser irradiation unit 32 when the installation surface 5 is used as a reference. Let z'be the height of the light source of the laser irradiation unit 32 when the surface 6 (below the installation surface 5) is used as a reference. Let r ′ be the horizontal distance from the point P21 to the principal point of the lens of the first camera 14. Further, let r be the horizontal distance from the point P21'to the principal point of the lens of the first camera 14. d, which is the difference between r and r', is the amount of deviation of the laser irradiation position due to the presence of a step. That is, d = r'-r.
Using these quantities, the control unit 40 can calculate the height Δz between the installation surface 5 and the surface 6 based on the following equation.
Δz = (z'-z) = d * z'/ r = d * z / (rd)

図25や図26では、P21について説明したが、制御部40は、すべての照射点について同様の計算をすることにより、面の段差の状況や凹凸の状況を把握できる。制御部40は、算出した高さの情報に基づいて、ターゲットをつかんだり離したりする高さを決定することができる。 Although P21 has been described with reference to FIGS. 25 and 26, the control unit 40 can grasp the state of steps and the state of unevenness on the surface by performing the same calculation for all the irradiation points. The control unit 40 can determine the height at which the target is grabbed and released based on the calculated height information.

レーザー照射部32による照射パターンは他の形状であってもよい。例えば、照射パターンは、十字型(交わる2本の線分によるもの)であってもよい。
また、レーザー照射部32は、複数の発光部(光源)を有していてもよい。この場合、例えば設置面上の複数のポイントを同時に照射することができる。例えば、レーザー照射部32は、図23に示す12個のポイントのうちのいくつかを同時に照射することができる。また、レーザー照射部32は、時分割で複数のポイントを照射するようにしてもよい。また、照射するポイントの数は12個でなくともよい。また、レーザー照射部32は、必ずしも設置面に対して垂直に照射しなくてもよい。レーザー照射部32が斜め方向に設置面を照射してもよい。
The irradiation pattern by the laser irradiation unit 32 may have another shape. For example, the irradiation pattern may be cross-shaped (due to two intersecting line segments).
Further, the laser irradiation unit 32 may have a plurality of light emitting units (light sources). In this case, for example, a plurality of points on the installation surface can be irradiated at the same time. For example, the laser irradiation unit 32 can simultaneously irradiate some of the 12 points shown in FIG. 23. Further, the laser irradiation unit 32 may irradiate a plurality of points in a time-division manner. Further, the number of irradiation points does not have to be twelve. Further, the laser irradiation unit 32 does not necessarily have to irradiate the installation surface perpendicularly. The laser irradiation unit 32 may irradiate the installation surface in an oblique direction.

なお、複数のタイミングで撮影した画像を合成(重ね合わせ)して図24に示す画像を生成する代わりに、各タイミングで撮影して得られた合成済画像における照射光の位置にそれぞれ基づいて、設置面の段差あるいは凹凸を算出するようにしてもよい。 Instead of synthesizing (superimposing) the images taken at a plurality of timings to generate the image shown in FIG. 24, the images taken at each timing are based on the position of the irradiation light in the synthesized images obtained at each timing. The step or unevenness of the installation surface may be calculated.

つまり、本実施形態では、制御部40は、レーザー照射部32が、設置面5上の複数の所定位置の方向に光を順次照射するよう、先端部31を移動させながら制御する。また、制御部40は、複数の所定位置の方向にレーザー照射部32が光を照射しているタイミングの各々に対応して複数の合成済画像(平面図画像)を生成する。また、制御部40は、複数の合成済画像(平面図画像)に含まれる所定パターンの光の位置に基づいて、設置面5の段差や凹凸を算出する。この過程において、上記複数のタイミングの合成済画像を重ね合わせる処理を行い、1枚の合成済画像(平面図画像)を生成してもよい。 That is, in the present embodiment, the control unit 40 controls the laser irradiation unit 32 while moving the tip portion 31 so that the laser irradiation unit 32 sequentially irradiates light in the directions of a plurality of predetermined positions on the installation surface 5. Further, the control unit 40 generates a plurality of synthesized images (plan view images) corresponding to each of the timings at which the laser irradiation unit 32 irradiates light in the directions of the plurality of predetermined positions. Further, the control unit 40 calculates steps and irregularities of the installation surface 5 based on the positions of light of a predetermined pattern included in the plurality of combined images (plan view images). In this process, a process of superimposing the composited images at the plurality of timings may be performed to generate one composited image (plan view image).

以上説明したように、本実施形態によれば、ロボット4は、設置面の段差や起伏を自動的に把握できる。したがって、ロボット4の設置場所を変更した場合でも、ターゲットをつかむ高さなどの位置を設定する操作を行う必要がない。つまり、小型のロボットの可搬性を損なうことなく、ロボット動作の自動化を実現できる。 As described above, according to the present embodiment, the robot 4 can automatically grasp the steps and undulations on the installation surface. Therefore, even if the installation location of the robot 4 is changed, it is not necessary to perform an operation of setting a position such as a height for grasping the target. That is, it is possible to realize automation of the robot operation without impairing the portability of the small robot.

なお、上述した各実施形態におけるロボットの制御部40の少なくとも一部の機能をコンピューターで実現することができる。その場合、この機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM、DVD−ROM、USBメモリー等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、一時的に、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。 It should be noted that at least a part of the functions of the robot control unit 40 in each of the above-described embodiments can be realized by a computer. In that case, the program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. The "computer-readable recording medium" is a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, a DVD-ROM, or a USB memory, or a storage device such as a hard disk built in a computer system. Say that. Furthermore, a "computer-readable recording medium" is a device that temporarily and dynamically holds a program, such as a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In that case, it may include a program that holds a program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or a client. Further, the above-mentioned program may be a program for realizing a part of the above-mentioned functions, and may be a program for realizing the above-mentioned functions in combination with a program already recorded in the computer system.

本発明は、例えば産業用あるいは娯楽用等、あらゆる種類のロボットに利用することができる。ただし、本発明の利用範囲は、ここに例示したものには限定されない。 The present invention can be used for all kinds of robots, for example, for industrial use or entertainment use. However, the scope of use of the present invention is not limited to those exemplified here.

1,2,2a,2b,3,4 ロボット
5,5L,5U 設置面
11 台座
12 支柱
14,14L,14R 第1カメラ
15 第1アーム
16 第2アーム
21 第1関節
22 第2関節
23 第3関節
31,31b 先端部(ハンド)
32,32−1,32−2 レーザー照射部
33 フィンガー
34 第2カメラ
40 制御部
101 合成済画像(平面図画像)
101L,101R 座標変換済画像(平面図部分画像)
201 レール
202 対象物
1,2,2a, 2b, 3,4 Robot 5,5L, 5U Installation surface 11 Pedestal 12 Struts 14, 14L, 14R 1st camera 15 1st arm 16 2nd arm 21 1st joint 22 2nd joint 23 3rd Joints 31, 31b Tip (hand)
32, 32-1, 32-2 Laser irradiation unit 33 Finger 34 Second camera 40 Control unit 101 Synthesized image (plan view image)
101L, 101R coordinate converted image (plan view partial image)
201 Rail 202 Object

Claims (8)

設置面に接する点を有する台座と、
前記台座に垂直に取り付けられ、垂直軸回りを回転可能な支柱と、
前記支柱に接続され、単数または複数の関節により向きを変えることを可能とするアームと、
前記アームの先端に接続され、前記アームとの向きを変えることを可能とした先端部と、
前記支柱に対して固定された位置に設けられ前記台座自身と前記台座の周辺の前記設置面とを撮影可能とした複数の第1カメラと、
前記複数の第1カメラから第1画像を取得し、前記第1画像を座標変換することによって部分平面図画像を生成し、複数の前記部分平面図の位置合わせを行って合成することによって前記台座の画像を含んだ平面図画像を生成するとともに、前記平面図画像に基づいて前記先端部を所定の位置に移動させるために前記アームの向きを変えるよう制御する制御部と、
を備えるロボット。
A pedestal with a point in contact with the installation surface,
A strut that is mounted vertically on the pedestal and can rotate around the vertical axis,
An arm that is connected to the strut and can be turned by a single or multiple joints.
A tip portion connected to the tip of the arm and capable of changing the direction with the arm,
A plurality of first cameras provided at a position fixed to the support column and capable of photographing the pedestal itself and the installation surface around the pedestal, and a plurality of first cameras.
The pedestal is obtained by acquiring a first image from the plurality of first cameras, generating a partial plan view image by coordinate-transforming the first image, and aligning and synthesizing the plurality of the partial plan views. A control unit that generates a plan view image including the image of the above and controls to change the direction of the arm in order to move the tip portion to a predetermined position based on the plan view image.
A robot equipped with.
前記先端部に固定して設けられ、前記設置面方向に所定のパターンを有する光を照射する照射部、
をさらに備える請求項1に記載のロボット。
An irradiation unit that is fixed to the tip and irradiates light having a predetermined pattern in the direction of the installation surface.
The robot according to claim 1.
前記先端部に設けられた第2カメラ、
をさらに備え、
前記制御部は、前記第2カメラから取得する第2画像にも基づいて前記アームの向きを変えるよう制御する、
請求項1または2に記載のロボット。
A second camera provided at the tip,
With more
The control unit controls to change the direction of the arm based on the second image acquired from the second camera.
The robot according to claim 1 or 2.
前記設置面上を自律移動するための自律移動部、
をさらに備えた請求項1に記載のロボット。
An autonomous moving unit for autonomously moving on the installation surface,
The robot according to claim 1, further comprising.
前記第1カメラおよび前記第2カメラは、同時に対象物を撮影し、
前記制御部は、前記第1カメラおよび前記第2カメラによって同時にそれぞれ撮影された画像に基づいて前記アームの向きを変えるよう制御する、
請求項3に記載のロボット。
The first camera and the second camera simultaneously photograph an object, and the object is photographed.
The control unit controls to change the direction of the arm based on the images taken by the first camera and the second camera at the same time.
The robot according to claim 3.
前記第1カメラおよび前記第2カメラは、互いに異なるフェーズにおいて対象物を撮影し、
前記制御部は、前記フェーズごとに、前記第1カメラが撮影した前記第1画像に基づいて前記アームの向きを変えるよう制御し、前記第2カメラが撮影した前記第2画像に基づいて前記アームの向きを変えるよう制御する、
請求項3に記載のロボット。
The first camera and the second camera photograph an object in different phases.
The control unit controls each phase to change the direction of the arm based on the first image captured by the first camera, and the arm is based on the second image captured by the second camera. Control to change the direction of
The robot according to claim 3.
複数の前記照射部を備え、
複数の前記照射部のうちの少なくとも一部の照射部は、他の照射部とは異なる方向に前記光を照射する、
請求項2に記載のロボット。
With a plurality of the above-mentioned irradiation units,
At least a part of the irradiation units of the plurality of irradiation units irradiates the light in a direction different from that of the other irradiation units.
The robot according to claim 2.
前記制御部は、前記照射部が、前記設置面上の複数の所定位置の方向に前記光を順次照射するよう、前記先端部を移動させながら制御し、
前記制御部は、前記複数の所定位置の方向に前記照射部が前記光を照射しているタイミングの各々に対応して複数の前記平面図画像を生成し、
前記制御部は、前記複数の平面図画像に含まれる前記所定のパターンの光の位置に基づいて、前記設置面の段差または凹凸を算出する、
請求項2に記載のロボット。
The control unit controls the irradiation unit while moving the tip portion so that the irradiation unit sequentially irradiates the light in the direction of a plurality of predetermined positions on the installation surface.
The control unit generates a plurality of the plan view images corresponding to each of the timings at which the irradiation unit irradiates the light in the direction of the plurality of predetermined positions.
The control unit calculates the step or unevenness of the installation surface based on the position of the light of the predetermined pattern included in the plurality of plan view images.
The robot according to claim 2.
JP2020539946A 2018-08-30 2018-08-30 robot Active JP7055883B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/032118 WO2020044491A1 (en) 2018-08-30 2018-08-30 Robot

Publications (2)

Publication Number Publication Date
JPWO2020044491A1 true JPWO2020044491A1 (en) 2021-08-10
JP7055883B2 JP7055883B2 (en) 2022-04-18

Family

ID=69643551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020539946A Active JP7055883B2 (en) 2018-08-30 2018-08-30 robot

Country Status (2)

Country Link
JP (1) JP7055883B2 (en)
WO (1) WO2020044491A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024186054A1 (en) * 2023-03-03 2024-09-12 주식회사 로보에테크놀로지 Robot assembly

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4636137A (en) * 1980-10-24 1987-01-13 Lemelson Jerome H Tool and material manipulation apparatus and method
JP2001252883A (en) * 2000-03-09 2001-09-18 Denso Corp Movable robot system
JP2006021300A (en) * 2004-07-09 2006-01-26 Sharp Corp Predicting device and holding device
JP2011051056A (en) * 2009-09-01 2011-03-17 Kawada Kogyo Kk Hanging type cooperation working robot
JP2014089095A (en) * 2012-10-30 2014-05-15 Fujitsu Ltd Moving body posture detection method, moving body posture detection device and component assembling device
JP2014148040A (en) * 2014-05-21 2014-08-21 Seiko Epson Corp Position controlling method, and robot
JP2014188600A (en) * 2013-03-26 2014-10-06 Toshiba Corp Remote visual recognition device and remote visual recognition operation system
JP2016078184A (en) * 2014-10-17 2016-05-16 ファナック株式会社 Device for setting interference region of robot
WO2017056269A1 (en) * 2015-09-30 2017-04-06 株式会社小松製作所 Image data generation method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4636137A (en) * 1980-10-24 1987-01-13 Lemelson Jerome H Tool and material manipulation apparatus and method
JP2001252883A (en) * 2000-03-09 2001-09-18 Denso Corp Movable robot system
JP2006021300A (en) * 2004-07-09 2006-01-26 Sharp Corp Predicting device and holding device
JP2011051056A (en) * 2009-09-01 2011-03-17 Kawada Kogyo Kk Hanging type cooperation working robot
JP2014089095A (en) * 2012-10-30 2014-05-15 Fujitsu Ltd Moving body posture detection method, moving body posture detection device and component assembling device
JP2014188600A (en) * 2013-03-26 2014-10-06 Toshiba Corp Remote visual recognition device and remote visual recognition operation system
JP2014148040A (en) * 2014-05-21 2014-08-21 Seiko Epson Corp Position controlling method, and robot
JP2016078184A (en) * 2014-10-17 2016-05-16 ファナック株式会社 Device for setting interference region of robot
WO2017056269A1 (en) * 2015-09-30 2017-04-06 株式会社小松製作所 Image data generation method

Also Published As

Publication number Publication date
JP7055883B2 (en) 2022-04-18
WO2020044491A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JP5377758B2 (en) Method and system for accurately positioning at least one object in a final pose in space
JP6222898B2 (en) Three-dimensional measuring device and robot device
US12002240B2 (en) Vision system for a robotic machine
US20110071675A1 (en) Visual perception system and method for a humanoid robot
JPWO2018043525A1 (en) Robot system, robot system control apparatus, and robot system control method
JP6741537B2 (en) Robot, robot control device, and robot position teaching method
US20170151673A1 (en) Manipulator system, and image capturing system
JP2011507714A (en) Method and system for accurately positioning at least one object in a final pose in space
JP2016099257A (en) Information processing device and information processing method
JP6741538B2 (en) Robot, robot control device, and robot position teaching method
CN112549052B (en) Control device for robot device for adjusting position of robot-supported component
JP2016000442A (en) Robot, robotic system, and control device
US6466841B2 (en) Apparatus and method for determining a reference position for an industrial robot
JP6328796B2 (en) Manipulator control method, system, and manipulator
JP2008168372A (en) Robot device and shape recognition method
JP2014188617A (en) Robot control system, robot, robot control method, and program
JP7055883B2 (en) robot
CN113302027B (en) Job coordinate generating device
US9636824B2 (en) Transfer system
JP2024096756A (en) Robot mounting mobile device and control method therefor
JP7183372B1 (en) Marker detection device and robot teaching system
JP2005205519A (en) Robot hand device
JP2007183175A (en) Member alignment system
JPH0545117A (en) Optical method for measuring three-dimensional position
CN118139729A (en) Calibration method for automatically calibrating a camera of a medical robot and surgical assistance system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220406

R150 Certificate of patent or registration of utility model

Ref document number: 7055883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150