JP6440303B2 - Object recognition device, object recognition method, and program - Google Patents
Object recognition device, object recognition method, and program Download PDFInfo
- Publication number
- JP6440303B2 JP6440303B2 JP2014244417A JP2014244417A JP6440303B2 JP 6440303 B2 JP6440303 B2 JP 6440303B2 JP 2014244417 A JP2014244417 A JP 2014244417A JP 2014244417 A JP2014244417 A JP 2014244417A JP 6440303 B2 JP6440303 B2 JP 6440303B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- candidate
- recognition
- target
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000012545 processing Methods 0.000 claims description 68
- 238000011156 evaluation Methods 0.000 claims description 52
- 238000006243 chemical reaction Methods 0.000 claims description 48
- 238000004364 calculation method Methods 0.000 claims description 43
- 238000009826 distribution Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 7
- 230000008569 process Effects 0.000 description 32
- 238000013527 convolutional neural network Methods 0.000 description 21
- 238000003860 storage Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000000052 comparative effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Description
本発明は、対象認識装置、対象認識方法、およびプログラムに関する。 The present invention relates to an object recognition device, an object recognition method, and a program.
従来、撮像画像に対して画像認識を行って画像内に含まれる対象を認識する技術がある。この対象認識技術においては、近年、ニューラルネットワークを多層化したディープラーニング技術を利用して高い精度で対象を認識することが行われている。このディープラーニング技術は、一般的にはニューラルネットワークの入力層と出力層との間の中間層において複数段階に亘って層を重ねることにより高い精度で対象を認識する。このディープラーニング技術において、特に、畳み込みニューラルネットワーク(Convoltional Neural Network;CNN)が、従来の画像特徴量に基づいて対象を認識するよりも高い性能を有することで注目されている。 Conventionally, there is a technique for recognizing a target included in an image by performing image recognition on a captured image. In this object recognition technique, in recent years, an object is recognized with high accuracy by using a deep learning technique in which a neural network is multilayered. This deep learning technique generally recognizes an object with high accuracy by layering a plurality of layers in an intermediate layer between an input layer and an output layer of a neural network. In this deep learning technology, in particular, a convolutional neural network (CNN) has attracted attention because it has higher performance than a conventional method for recognizing an object based on image feature amounts.
畳み込みニューラルネットワークによれば、ラベルが付与された認識対象画像を学習し、認識対象画像に含まれる主な対象を認識する。このため、畳み込みニューラルネットワークは、学習画像内に主な対象が複数存在する場合には、手動で主な対象が含まれる領域矩形で指定し、当該指定された領域に対応した画像にラベルを付与して学習を行っていた。 According to the convolutional neural network, a recognition target image to which a label is attached is learned, and a main target included in the recognition target image is recognized. For this reason, when there are multiple main objects in the learning image, the convolutional neural network manually designates the area rectangle that contains the main object and assigns a label to the image corresponding to the designated area. And learning.
この学習処理において、指定された領域に対してラベルを付与する必要があった。その後の学習処理において、指定された領域に対応した画像を畳み込みニューラルネットワークに入力し、畳み込みニューラルネットワークから出力された特徴ベクトルを学習している。
また、従来の対象の認識プロセスは、認識対象画像に対してエッジ抽出処理等を実施することにより局所的な特徴に基づいて候補領域を抽出すると共に、候補領域を畳み込みニューラルネットワークに入力して特徴ベクトルを抽出した上で分類を行い、分類された最も確信度が高い候補領域を認識結果として得ていた。確信度とは、ある画像領域とラベルとともに学習された画像の主体の類似度が、他のクラスの類似度より相対的にどの程度高いかを示す量である。
In this learning process, it is necessary to add a label to the designated area. In the subsequent learning process, an image corresponding to the designated region is input to the convolutional neural network, and feature vectors output from the convolutional neural network are learned.
In addition, the conventional object recognition process extracts a candidate area based on local features by performing edge extraction processing or the like on the recognition target image, and inputs the candidate area into a convolutional neural network. Classification was performed after extracting the vectors, and the classified candidate areas with the highest certainty were obtained as recognition results. The certainty factor is an amount indicating how much the similarity degree of the subject of the image learned together with a certain image region and label is relatively higher than the similarity degree of the other class.
しかしながら、従来の畳み込みニューラルネットワークを利用した対象認識技術は、学習画像に複数の対象が存在する場合には自動的に所望する一つの対象に絞り込むことができないため、上述したように画像に含まれる対象が含まれる複数の領域を一つずつ手動により指定する必要があった。 However, the conventional object recognition technique using the convolutional neural network cannot be automatically narrowed down to one desired object when there are a plurality of objects in the learning image, and thus is included in the image as described above. It was necessary to manually specify multiple areas that contain the target one by one.
すなわち、従来の畳み込みニューラルネットワークを利用した対象認識技術における学習プロセスは、1つの認識対象画像に対して1つのラベルを付与して学習データを作成する必要があるので、領域指定のための負担が大きい。また、対象の認識精度を高めるための学習プロセスの処理対象となる画像(以下、教師画像)を畳み込みニューラルネットワークの処理専用に作成して記憶させる必要がある。 That is, the learning process in the conventional object recognition technology using the convolutional neural network needs to create learning data by assigning one label to one recognition target image, and therefore, there is a burden for area designation. large. Further, it is necessary to create and store an image (hereinafter referred to as a teacher image) that is a processing target of a learning process for improving the recognition accuracy of the object, dedicated to the processing of the convolutional neural network.
また、従来の畳み込みニューラルネットワークを利用した対象認識技術における認識プロセスは、認識対象が物体などの輪郭が明確なものが多く、教師画像も物体の輪郭等が明確なものであることが多い。このことから、特定の物体の判断が困難な画像に対しては良好な認識精度を発揮することができなかった。例えば、秋葉原、浅草などの街全体の風景のように、多数の物体が含まれている画像や、特定の物体を判別しにくい画像や、画像内に近距離物体が遠距離物体とが混在している画像や、サイズが大きく異なる物体が混在している画像などを高い認識精度で処理することができなかった。 In addition, the recognition process in the object recognition technology using the conventional convolutional neural network often has a clear outline of the object to be recognized, and the teacher image often has a clear outline of the object. For this reason, good recognition accuracy could not be exhibited for images in which it is difficult to determine a specific object. For example, images containing many objects such as Akihabara and Asakusa landscapes, images that make it difficult to identify a specific object, and objects that are short-range objects and long-distance objects are mixed. Images with a large size or objects with greatly different sizes cannot be processed with high recognition accuracy.
さらに、従来の畳み込みニューラルネットワークを用いた対象認識技術に限らず、既存の他の対象認識技術においても同様の問題があった。 Furthermore, there are similar problems not only in the conventional object recognition technology using the convolutional neural network but also in other existing object recognition technologies.
そこで本発明は、上記の課題に鑑みてなされたものであって、より高い認識精度で画像内の主な対象および当該対象の位置を判定することができる対象認識装置、対象認識方法、およびプログラムを提供することを目的としている。 Therefore, the present invention has been made in view of the above-described problems, and an object recognition device, an object recognition method, and a program that can determine a main object in an image and the position of the object with higher recognition accuracy. The purpose is to provide.
(1)本発明の一態様は、認識対象画像に任意面積の候補領域を複数設定する画像変換部と、前記画像変換部により設定された各候補領域に含まれる画像情報に対して認識処理を行い、前記各候補領域に対象候補ごとの確信度を計算する認識計算部と、前記認識対象画像の各位置において、当該位置で重複する複数の候補領域について、前記認識対象画像に含まれる対象候補を表す各クラスIDごとに、前記確信度を合計した評価値を算出し、前記各クラスIDごとに、前記認識対象画像の各位置における前記評価値の分布をマップとして生成するマップ生成部と、前記マップ生成部により作成されたマップに基づいて対象の位置を特定する位置算出部と、を有する、対象認識装置である。 (1) According to one aspect of the present invention, an image conversion unit that sets a plurality of candidate areas of an arbitrary area in a recognition target image, and a recognition process for image information included in each candidate area set by the image conversion unit A recognition calculation unit that calculates a certainty factor for each candidate candidate in each candidate region, and a target candidate included in the recognition target image for a plurality of candidate regions that overlap at each position of the recognition target image A map generation unit that calculates an evaluation value obtained by summing the certainty factors for each class ID, and generates a distribution of the evaluation values at each position of the recognition target image as a map for each class ID ; A position calculation unit that specifies a position of a target based on a map created by the map generation unit.
(2)本発明の一態様は、認識対象画像に任意面積の候補領域を複数設定する画像変換部と、前記画像変換部により設定された各候補領域に含まれる画像情報に対して認識処理を行い、前記各候補領域に対象候補ごとの確信度を計算する認識計算部と、前記認識対象画像の各位置において、当該位置の候補領域について、前記認識対象画像に含まれる対象候補を表す各クラスIDごとに、前記確信度と、当該候補領域の面積に応じた係数とをパラメータとし、前記面積が大きいほど値が大きくなる評価値を算出し、前記各クラスIDごとに、前記認識対象画像の各位置における前記評価値の分布をマップとして生成するマップ生成部と、前記マップ生成部により作成されたマップに基づいて対象の位置を特定する位置算出部と、を有する、対象認識装置である。 (2) According to one aspect of the present invention, an image conversion unit that sets a plurality of candidate areas having an arbitrary area in a recognition target image, and a recognition process for image information included in each candidate area set by the image conversion unit A recognition calculation unit that calculates a certainty factor for each target candidate in each candidate area, and each class that represents a target candidate included in the recognition target image at each position of the recognition target image. For each ID, the confidence factor and a coefficient corresponding to the area of the candidate region are used as parameters, and an evaluation value that increases as the area increases is calculated. For each class ID, the recognition target image It has a map generating unit for generating a distribution of the evaluation value at each position as a map, and a position calculating unit for specifying a position of the object on the basis of the map created by the map generation unit, pairs It is a recognition device.
(3)本発明の一態様は、認識対象画像に任意面積の候補領域を複数設定する画像変換部と、前記画像変換部により設定された各候補領域に含まれる画像情報に対して認識処理を行い、前記各候補領域に対象候補ごとの確信度を計算する認識計算部と、前記認識対象画像の各位置において、当該位置で重複する複数の候補領域について、前記認識対象画像に含まれる対象候補を表す各クラスIDごとに、前記確信度の合計値と、前記重複する複数の候補領域の面積に応じた係数とをパラメータとし、前記面積が大きいほど値が大きくなる評価値を算出し、前記各クラスIDごとに、前記認識対象画像の各位置における前記評価値の分布をマップとして生成するマップ生成部と、前記マップ生成部により作成されたマップに基づいて対象の位置を特定する位置算出部と、を有する、対象認識装置である。 (3) According to one aspect of the present invention, an image conversion unit that sets a plurality of candidate areas of an arbitrary area in a recognition target image, and a recognition process for image information included in each candidate area set by the image conversion unit A recognition calculation unit that calculates a certainty factor for each candidate candidate in each candidate region, and a target candidate included in the recognition target image for a plurality of candidate regions that overlap at each position of the recognition target image For each class ID that represents, using as a parameter the total value of the certainty factor and a coefficient according to the area of the plurality of overlapping candidate regions, calculating an evaluation value that increases as the area increases, for each class ID, the map generation unit for generating a distribution of the evaluation value in each position of the recognition target image as a map, the position of the object based on the maps created by the map generation unit Having a position calculating unit for specifying a target recognition apparatus.
(4)本発明の一態様は、上述の対象認識装置であって、前記画像変換部は、前記認識対象画像の特徴量を抽出し、当該抽出した特徴量に基づいて、前記認識対象画像内に含まれる特徴の大きさに応じた候補領域を設定し、前記認識対象画像に設定された複数の候補領域のうち、所定の領域面積より小さい領域面積の候補領域を削除する。 (4) One aspect of the present invention is the above-described target recognition device, wherein the image conversion unit extracts a feature amount of the recognition target image, and based on the extracted feature amount, A candidate area corresponding to the size of the feature included in the image is set, and a candidate area having a smaller area than a predetermined area is deleted from the plurality of candidate areas set in the recognition target image.
(5)本発明の一態様は、上述の対象認識装置であって、学習画像に基づいて対象を学習する学習処理部を有し、前記学習処理部は、外部から供給された学習画像の全体を用いて学習結果を生成し、前記認識計算部は、前記画像変換部により設定された候補領域の画像と、前記学習結果とを用いて対象候補の確信度を計算する。 (5) One aspect of the present invention is the above-described target recognition device, including a learning processing unit that learns a target based on a learning image, wherein the learning processing unit is an entire learning image supplied from the outside. The recognition calculation unit calculates the certainty factor of the target candidate using the image of the candidate area set by the image conversion unit and the learning result.
(6)本発明の一態様は、認識対象画像に任意面積の候補領域を複数設定するステップと、前記各候補領域に含まれる画像情報に対して認識処理を行い、前記各候補領域に対象候補ごとの確信度を計算するステップと、前記認識対象画像の各位置において、当該位置で重複する複数の候補領域について、前記認識対象画像に含まれる対象候補を表す各クラスIDごとに、前記確信度を合計した評価値を算出し、前記各クラスIDごとに、前記認識対象画像の各位置における前記評価値の分布をマップとして生成するステップと、前記マップに基づいて対象の位置を特定するステップと、を有する、対象認識方法である。 (6) According to one aspect of the present invention, a step of setting a plurality of candidate areas having an arbitrary area in a recognition target image, a recognition process is performed on the image information included in each candidate area, and the candidate candidates Calculating the certainty factor for each, and at each position of the recognition target image, the certainty factor for each class ID representing a target candidate included in the recognition target image for a plurality of candidate regions overlapping at the position For each class ID, generating a distribution of the evaluation values at each position of the recognition target image as a map , and identifying a target position based on the map ; The object recognition method which has these.
(7)本発明の一態様は、コンピュータに、認識対象画像に任意面積の候補領域を複数設定させ、前記各候補領域に含まれる画像情報に対して認識処理を行い、前記各候補領域に対象候補ごとの確信度を計算させ、前記認識対象画像の各位置において、当該位置で重複する複数の候補領域について、前記認識対象画像に含まれる対象候補を表す各クラスIDごとに、前記確信度を合計した評価値を算出し、前記各クラスIDごとに、前記認識対象画像の各位置における前記評価値の分布をマップとして生成させ、前記マップに基づいて対象の位置を特定させる、ためのプログラムである。 (7) According to one aspect of the present invention, a computer is configured to set a plurality of candidate areas having an arbitrary area in a recognition target image, perform recognition processing on the image information included in each candidate area, and target each candidate area. The certainty factor for each candidate is calculated, and the certainty factor is calculated for each class ID representing a candidate candidate included in the recognition target image for a plurality of candidate regions overlapping at the position at each position of the recognition target image. A program for calculating a total evaluation value, generating a distribution of the evaluation value at each position of the recognition target image as a map for each class ID, and specifying a target position based on the map is there.
本発明の一態様によれば、より高い認識精度で画像内の主な対象および当該対象の位置を判定することができる。 According to one embodiment of the present invention, it is possible to determine the main object and the position of the object in the image with higher recognition accuracy.
以下、本発明を適用した対象認識装置、対象認識方法、およびプログラムを、図面を参照して説明する。
まず、本発明を適用した実施形態の対象認識装置1の機能的な説明を行う。
図1は、本発明を適用した実施形態の対象認識装置1の機能的な構成を示すブロック図である。対象認識装置1は、認識対象画像に含まれる対象のうち主たる対象を認識し、認識した対象の属性(名称、種類)および位置を出力するものである。
対象認識装置1は、画像変換部12と、認識計算部14と、マップ生成部16と、位置算出部18とを有する。
Hereinafter, an object recognition apparatus, an object recognition method, and a program to which the present invention is applied will be described with reference to the drawings.
First, a functional description of the object recognition device 1 according to an embodiment to which the present invention is applied will be given.
FIG. 1 is a block diagram showing a functional configuration of an object recognition device 1 according to an embodiment to which the present invention is applied. The target recognition device 1 recognizes a main target among the targets included in the recognition target image, and outputs an attribute (name, type) and position of the recognized target.
The object recognition device 1 includes an image conversion unit 12, a recognition calculation unit 14, a map generation unit 16, and a position calculation unit 18.
画像変換部12は、外部から認識対象画像が供給される。画像変換部12は、任意の手法により認識対象画像に複数の候補領域を設定し、複数の候補領域はおのおの重なっていてもよい。画像変換部12は、認識対象画像の特徴に基づいて候補領域を設定するものとして説明する。しかし、候補領域の設定手法は、これに限らず、いくつかの大きさの枠をずらしていくなどの手法を採用してもよい。 The image conversion unit 12 is supplied with a recognition target image from the outside. The image conversion unit 12 may set a plurality of candidate regions in the recognition target image by an arbitrary method, and the plurality of candidate regions may overlap each other. The image conversion unit 12 will be described assuming that a candidate area is set based on the characteristics of the recognition target image. However, the candidate region setting method is not limited to this, and a method of shifting frames of several sizes may be employed.
認識計算部14は、画像変換部12により設定された各候補領域に含まれる画像情報に対して認識処理を行う。認識計算部14は、学習結果データベース140に記憶された学習結果を参照して、各候補領域に含まれる画像情報が対象候補に類似するほど確信度を高くする。これにより、認識計算部14は、各候補領域に対象候補ごとの確信度を計算する。対象候補は、認識対象画像に含まれる物体、風景等の画像を見る者が認識可能なものであり、認識対象画像に含まれる可能性がある候補となる対象である。また、確信度とは、対象候補の確からしさであり、任意の画像とラベルとともに学習された画像の主体の類似度が、他のクラス(対象候補)の類似度より相対的にどの程度高いかを示す量である。
認識計算部14は、候補領域に含まれる画像について複数の対象候補が計算された場合には、各対象候補について確信度を得る。これにより、認識計算部14は、各候補領域について、一又は複数の対象候補と、当該各対象候補の確信度を得る。
The recognition calculation unit 14 performs a recognition process on the image information included in each candidate area set by the image conversion unit 12. The recognition calculation unit 14 refers to the learning result stored in the learning result database 140 and increases the certainty as the image information included in each candidate region is similar to the target candidate. Thereby, the recognition calculation unit 14 calculates the certainty factor for each target candidate in each candidate region. The target candidate is a target that can be recognized by a person who sees an image such as an object or a landscape included in the recognition target image, and is a candidate that may be included in the recognition target image. The certainty is the probability of the target candidate, and how much the subject's similarity in the image learned with an arbitrary image and label is relatively higher than the similarity of other classes (target candidates) It is the quantity which shows.
The recognition calculation unit 14 obtains a certainty factor for each target candidate when a plurality of target candidates are calculated for the image included in the candidate region. Thereby, the recognition calculation unit 14 obtains one or a plurality of target candidates and the certainty factor of each target candidate for each candidate region.
マップ生成部16は、クラスIDおよび確信度に基づいて、認識対象画像の位置ごとに評価値を算出する。マップ生成部16は、例えば認識対象画像のピクセルごと、あるいは、いくつかのピクセル集合をひとつの位置として見立てた代表位置ごとに評価値を算出する。マップ生成部16は、確信度に対して所定の統計処理を実施し評価値を算出する。この評価値は、認識対象画像に含まれる主な対象がクラスIDに対応する対象であるという評価が高いほど、高い値となる。
統計処理は、例えば、認識対象画像の位置ごとに、クラスIDごとに確信度を合計して評価値を算出する。この統計処理によれば、同じクラスIDが算出された候補領域が重複している位置ほど、高い評価値を算出する。
また、統計処理は、候補領域の面積に応じた係数と確信度とを用い、候補領域の面積が大きいほど評価値を高くしてもよい。
さらに統計処理は、クラスIDおよび確信度を合計すると共に候補領域の面積に応じた係数を用いて評価値を算出してもよい。この変換処理によれば、同じクラスIDが算出された候補領域が重複しており、且つ候補領域の面積が大きいほど、高い評価値を算出する。
なお、統計換処理は、認識対象画像に含まれる主な対象がクラスIDに対応する対象であるという評価が高くなる評価値が算出できればよく、その他の処理を行ってもよい。
これにより、マップ生成部16は、認識対象画像の位置ごとに、クラスIDごとの評価値を含むマップを作成することができる。つまり、クラスIDに対応した対象が存在する可能性が高いほど高い評価値が分布されたマップを生成する。
The map generation unit 16 calculates an evaluation value for each position of the recognition target image based on the class ID and the certainty factor. For example, the map generation unit 16 calculates an evaluation value for each pixel of the recognition target image or for each representative position where several pixel sets are regarded as one position. The map generation unit 16 performs predetermined statistical processing on the certainty factor and calculates an evaluation value. The evaluation value becomes higher as the evaluation that the main target included in the recognition target image is a target corresponding to the class ID is higher.
In the statistical processing, for example, for each position of the recognition target image, the reliability is calculated for each class ID to calculate an evaluation value. According to this statistical processing, a higher evaluation value is calculated for a position where candidate areas for which the same class ID is calculated overlap.
Further, the statistical processing may use a coefficient according to the area of the candidate region and the certainty factor, and increase the evaluation value as the area of the candidate region increases.
Further, in the statistical processing, the class ID and the certainty factor may be totaled and the evaluation value may be calculated using a coefficient corresponding to the area of the candidate region. According to this conversion process, a candidate area where the same class ID is calculated overlaps, and a higher evaluation value is calculated as the area of the candidate area is larger.
Note that the statistical conversion process only needs to be able to calculate an evaluation value that increases the evaluation that the main target included in the recognition target image is a target corresponding to the class ID, and other processes may be performed.
Thereby, the map production | generation part 16 can produce the map containing the evaluation value for every class ID for every position of the recognition object image. That is, a map is generated in which higher evaluation values are distributed as the possibility that an object corresponding to the class ID exists is higher.
位置算出部18は、マップ生成部16により作成されたマップを参照して、認識対象画像に主に含まれる対象(クラスID)の位置を計算する。位置算出部18は、認識対象画像のうち、クラスIDの評価値が高い領域に、クラスIDに対応した対象が存在すると判定する。
位置算出部18は、例えば、評価値が所定の閾値を超えた認識対象画像の領域を抽出し、抽出された領域にクラスIDに対応した対象が存在すると判定してもよい。また、位置算出部18は、マップに対してエッジ抽出処理を実施し、評価値が段階的に高くなったエッジ線に囲まれる領域を抽出し、抽出された領域にクラスIDに対応した対象が存在すると判定してもよい。
これにより、位置算出部18は、クラスIDと、当該クラスIDに対応した対象の位置情報とを得ることができる。この位置情報は、対象の輪郭位置であってもよく、対象の中心位置であってもよい。
The position calculation unit 18 refers to the map created by the map generation unit 16 and calculates the position of the target (class ID) mainly included in the recognition target image. The position calculation unit 18 determines that a target corresponding to the class ID exists in an area where the evaluation value of the class ID is high in the recognition target image.
For example, the position calculation unit 18 may extract a region of the recognition target image whose evaluation value exceeds a predetermined threshold, and determine that a target corresponding to the class ID exists in the extracted region. In addition, the position calculation unit 18 performs edge extraction processing on the map, extracts a region surrounded by the edge line whose evaluation value is increased stepwise, and an object corresponding to the class ID is included in the extracted region. You may determine that it exists.
Thereby, the position calculation unit 18 can obtain the class ID and target position information corresponding to the class ID. This position information may be the contour position of the target or the center position of the target.
以下、図1に示した対象認識装置1の具体的な構成および動作について説明する。
図2は、本発明を適用した実施形態の対象認識装置1の一構成例を示すブロック図である。対象認識装置1は、例えば携帯型通信端末に実装される。対象認識装置1には、画像処理装置200および画像表示部300と接続される。
Hereinafter, a specific configuration and operation of the object recognition apparatus 1 shown in FIG. 1 will be described.
FIG. 2 is a block diagram showing a configuration example of the object recognition apparatus 1 according to the embodiment to which the present invention is applied. The object recognition device 1 is mounted on, for example, a portable communication terminal. The object recognition device 1 is connected to the image processing device 200 and the image display unit 300.
画像処理装置200は、画像生成部202とAR(Augmented Reality)処理部204とを有する。
画像生成部202は、対象認識装置1に供給される認識対象画像を生成する。画像生成部202は、例えばカメラ装置、外部から画像データを受信する通信部、または画像データを記憶する記憶部により構成される。画像処理装置200は、認識対象画像に含まれる対象を認識させる場合に、画像生成部202により生成された認識対象画像を対象認識装置1に供給する。
The image processing apparatus 200 includes an image generation unit 202 and an AR (Augmented Reality) processing unit 204.
The image generation unit 202 generates a recognition target image supplied to the target recognition device 1. The image generation unit 202 includes, for example, a camera device, a communication unit that receives image data from the outside, or a storage unit that stores image data. The image processing apparatus 200 supplies the recognition target image generated by the image generation unit 202 to the target recognition apparatus 1 when recognizing a target included in the recognition target image.
AR処理部204は、画像生成部202により生成された認識対象画像に対して画像処理を行うことにより、AR処理を行う。このAR処理とは、認識対象画像により表される環境に情報を付加、削除、強調または減衰させる処理を含む。AR処理には、例えば、カメラ装置により撮像された認識対象画像に、当該認識対象画像に含まれる対象の説明画像を付加する処理が含まれる。AR処理部204は、認識対象画像に含まれる対象を対象認識装置1に識別させる場合に、画像生成部202から対象認識装置1に認識対象画像を出力させる。
本実施形態において、対象認識装置1は、認識対象画像に含まれるランドマーク画像を認識し、ランドマーク画像についての説明を認識対象画像に付加するAR処理を行うものとして説明する。
The AR processing unit 204 performs AR processing by performing image processing on the recognition target image generated by the image generation unit 202. This AR processing includes processing for adding, deleting, enhancing, or attenuating information in the environment represented by the recognition target image. The AR process includes, for example, a process of adding a description image of a target included in the recognition target image to the recognition target image captured by the camera device. The AR processing unit 204 causes the target recognition device 1 to output a recognition target image when the target recognition device 1 identifies a target included in the recognition target image.
In the present embodiment, the target recognition apparatus 1 is described as performing an AR process of recognizing a landmark image included in the recognition target image and adding a description of the landmark image to the recognition target image.
なお、本実施形態において、対象認識装置1により対象が認識された結果(ランドマーク)を、AR処理に用いることについて説明するが、対象認識装置1により対象が認識された結果は、他の用途に用いてもよいことは勿論である。
例えば、画像処理装置200は、SNS(social networking service)アプリケーションから出力された要求に応じて、SNSアプリケーションにより表示させる画像に含まれる対象を対象認識装置1に識別させてもよい。SNSアプリケーションは、対象認識装置1により対象が認識された結果(クラスIDおよび位置)に基づき、認識対象画像に予め設定した対象が含まれる場合に、当該認識対象画像から対象を削除または減衰する、他の情報を付加するといった画像処理を実施する。
In addition, in this embodiment, it demonstrates using the result (landmark) by which the object recognition apparatus 1 recognized the object for AR processing, However, The result by which the object recognition apparatus 1 recognized the object is other uses. Of course, it may be used.
For example, the image processing apparatus 200 may cause the target recognition apparatus 1 to identify a target included in an image displayed by the SNS application in response to a request output from an SNS (social networking service) application. The SNS application deletes or attenuates a target from the recognition target image when a target set in advance is included in the recognition target image based on the result of recognition of the target by the target recognition device 1 (class ID and position). Image processing such as adding other information is performed.
対象認識装置1は、画像変換部12と、認識計算部14と、マップ生成部16と、位置算出部18と、インターフェース部20と、学習画像蓄積部22と、学習処理部24とを有する。
なお、対象認識装置1は、ソフトウェアを実行する制御装置および記憶部を有するコンピュータである。対象認識装置1は、CPU(Central Processing Unit)などのプロセッサが記憶部(不図示)に記憶されているプログラムを実行することによって機能するソフトウェア機能部である。また、対象認識装置1は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってよい。
また、対象認識装置1における記憶部は、例えば、HDD(Hard Disc Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory),ROM(Read Only Memory),またはRAM(Random Access Memory)等により実現される。また、記憶部には、ファームウェアやアプリケーションプログラム等の各種プログラム、各種機能部による処理結果、インターフェース部20が外部からから取得した情報などが記憶される。
The object recognition device 1 includes an image conversion unit 12, a recognition calculation unit 14, a map generation unit 16, a position calculation unit 18, an interface unit 20, a learning image storage unit 22, and a learning processing unit 24.
The object recognition device 1 is a computer having a control device that executes software and a storage unit. The object recognition device 1 is a software function unit that functions when a processor such as a CPU (Central Processing Unit) executes a program stored in a storage unit (not shown). The object recognition device 1 may be a hardware function unit such as an LSI (Large Scale Integration) or an ASIC (Application Specific Integrated Circuit).
The storage unit in the object recognition device 1 is realized by, for example, an HDD (Hard Disc Drive), a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), a ROM (Read Only Memory), or a RAM (Random Access Memory). Is done. The storage unit stores various programs such as firmware and application programs, processing results by various functional units, information acquired from the outside by the interface unit 20, and the like.
インターフェース部20は、携帯型通信端末に実装された画像処理装置200との間で情報を授受すると共に、対象認識装置1における各部との間で情報を授受する。
インターフェース部20は、画像処理装置200から認識対象画像が供給されたことに応じて、当該認識対象画像を処理対象として画像変換部12に出力する。インターフェース部20は、認識対象画像に対する対象の処理結果としてクラスIDおよび位置が位置算出部18から供給され、当該クラスIDおよび位置を画像処理装置200に出力する。このクラスIDおよび位置は、認識対象画像に含まれるランドマーク画像の分類を表す情報である。クラスIDとは、認識対象画像に含まれる主な対象を特定するための情報であり、例えば、建造物名、市街地名、風景名等が挙げられる。
The interface unit 20 exchanges information with the image processing apparatus 200 mounted on the portable communication terminal, and also exchanges information with each unit in the object recognition apparatus 1.
In response to the supply of the recognition target image from the image processing apparatus 200, the interface unit 20 outputs the recognition target image to the image conversion unit 12 as a processing target. The interface unit 20 is supplied with the class ID and the position from the position calculation unit 18 as the processing result of the object for the recognition target image, and outputs the class ID and the position to the image processing apparatus 200. The class ID and position are information indicating the classification of the landmark image included in the recognition target image. The class ID is information for specifying a main target included in the recognition target image, and examples thereof include a building name, a city name, and a landscape name.
学習画像蓄積部22は、クラスIDが付加された学習画像を蓄積する機能を有する。学習画像蓄積部22は、画像変換部220と画像データデータベース222とを有する。
学習画像蓄積部22は、学習素材としての画像を記憶するサーバ装置等(不図示)から学習画像をダウンロードする。学習画像蓄積部22は、例えば、対象認識装置1において実行されるAR用アプリケーションの命令に従って学習画像をダウンロードする。
この学習画像には、ラベルが付加される。このラベルには、学習画像の属性情報が書き込まれる。属性情報としては、学習画像に含まれるランドマークの分類が含まれる。属性情報は、クラスIDとして付加される。
本実施形態において、学習画像蓄積部22は、ランドマークを含む画像素材を学習画像としてダウンロードする。この学習画像に含まれるランドマーク画像としては、人が見てランドマークであることが認識可能な画像であることが望ましい。また、学習画像におけるランドマーク画像は、画像面積に対して任意の面積であってもよく、画像内位置も任意の位置であってもよい。
The learning image storage unit 22 has a function of storing a learning image to which a class ID is added. The learning image storage unit 22 includes an image conversion unit 220 and an image data database 222.
The learning image storage unit 22 downloads a learning image from a server device (not shown) that stores an image as a learning material. For example, the learning image storage unit 22 downloads a learning image in accordance with an AR application command executed in the object recognition device 1.
A label is added to the learning image. The attribute information of the learning image is written on this label. The attribute information includes classification of landmarks included in the learning image. The attribute information is added as a class ID.
In the present embodiment, the learning image storage unit 22 downloads an image material including a landmark as a learning image. The landmark image included in the learning image is preferably an image that can be recognized as a landmark by human eyes. Further, the landmark image in the learning image may have an arbitrary area with respect to the image area, and the position in the image may also be an arbitrary position.
画像変換部220には、外部から学習処理を行うために用いられる学習画像が供給される。画像変換部220は、後段の学習処理の処理方式に合わせて学習画像に前処理を行う。画像変換部220は、例えば学習画像の面積変更処理やアスペクト比の調整等を行い、学習処理が実施可能な形式に変換する。画像変換部220は、学習画像の全体を用いて学習処理部24により学習させることが望ましいが、学習画像を分割または領域切り出しして学習を学習処理部24により行わせてもよい。
画像データデータベース222は、外部から供給された変換前の学習画像、および画像変換部220により変換された学習画像を蓄積する。画像データデータベース222は、画像変換部220により変換された学習画像が学習処理部24において学習処理が実行可能なバッチファイルとして記憶される。また、画像データデータベース222は、ラベルにより分類されたランドマークごとに変換前の学習画像および変換後の学習画像を蓄積する。
The image conversion unit 220 is supplied with a learning image used for performing learning processing from the outside. The image conversion unit 220 preprocesses the learning image in accordance with the processing method of the subsequent learning process. The image conversion unit 220 converts, for example, a learning image area change process and an aspect ratio adjustment into a format in which the learning process can be performed. The image conversion unit 220 is preferably learned by the learning processing unit 24 using the entire learning image, but the learning processing unit 24 may perform learning by dividing or segmenting the learning image.
The image data database 222 stores the learning image before conversion supplied from the outside and the learning image converted by the image conversion unit 220. The learning data converted by the image conversion unit 220 is stored in the image data database 222 as a batch file that can be learned by the learning processing unit 24. The image data database 222 stores a learning image before conversion and a learning image after conversion for each landmark classified by the label.
学習処理部24は、画像データデータベース222に記憶されたラベル(クラスID)付きの画像に基づいて学習を行う。学習処理部24により実行される学習処理は、画像データをベクトル等の数値データに変換して行う。この学習処理により得られた学習結果は、認識計算部14における学習結果データベース140に記憶される。
学習処理部24により得られた学習結果は、認識計算部14により参照される。
The learning processing unit 24 performs learning based on an image with a label (class ID) stored in the image data database 222. The learning process executed by the learning processing unit 24 is performed by converting image data into numerical data such as vectors. The learning result obtained by this learning process is stored in the learning result database 140 in the recognition calculation unit 14.
The learning result obtained by the learning processing unit 24 is referred to by the recognition calculating unit 14.
画像変換部12、認識計算部14、マップ生成部16および位置算出部18は、図1を参照して説明したように動作する。これにより、対象認識装置1は、認識対象画像が供給されたことに応じて、クラスIDおよび位置をインターフェース部20に出力する。 The image conversion unit 12, the recognition calculation unit 14, the map generation unit 16, and the position calculation unit 18 operate as described with reference to FIG. As a result, the target recognition apparatus 1 outputs the class ID and the position to the interface unit 20 in response to the recognition target image being supplied.
なお、学習処理部24による学習手法は、畳み込みニューラルネットワークを作成してもよく、その他の機械学習手法(SVM等)でもよく、学習結果データベース140には、学習手法に応じた学習結果が記憶される。認識計算部14は、学習結果データベース140に記憶された学習結果に基づいて認識対象画像に含まれる主な対象に対応したクラスIDおよび確信度を得ることとなる。 Note that the learning method by the learning processing unit 24 may create a convolutional neural network or other machine learning method (SVM or the like), and the learning result database 140 stores learning results corresponding to the learning method. The The recognition calculation unit 14 obtains the class ID and the certainty factor corresponding to the main object included in the recognition target image based on the learning result stored in the learning result database 140.
クラスIDおよび確信度の算出に畳み込みニューラルネットワークを用いる場合、畳み込みニューラルネットワークは、認識対象画像を任意の個数のクラスに分類するよう学習される。学習処理部24は、クラスID:1の学習画像が供給されたことに対し、クラスID:1の学習結果が得られるように畳み込み層におけるフィルタ係数およびバイアス値が学習される。具体的には、クラスを「海岸」、「秋葉原」、「渋谷」、「東京タワー」、「都庁」に分類して学習した畳み込みニューラルネットワークは、「海岸」、「秋葉原」、「渋谷」、「東京タワー」、「都庁」を主な対象として含む認識対象画像が供給されたことに応じて、「海岸」、「秋葉原」、「渋谷」、「東京タワー」、「都庁」に分類することができる。
また、この学習処理において、畳み込みニューラルネットワークには、学習画像として、例えば図3〜図5に示すようなものが挙げられる。図3に示した学習画像P10はタワー状建造物(ランドマーク)を近距離且つ下方から撮像した画像であり、図4に示した学習画像P11はタワー状建造物を遠距離且つ上方から撮像した画像であり、図5に示した学習画像P12はタワー状建造物を夜間において撮像した画像である。
この学習処理において、対象認識装置1は、特定の物体を抽出して候補領域を切り出すことなく、学習画像の全体について学習処理を実施する。
When the convolutional neural network is used for calculating the class ID and the certainty factor, the convolutional neural network is learned to classify the recognition target images into an arbitrary number of classes. The learning processing unit 24 learns the filter coefficient and the bias value in the convolution layer so that the learning result of the class ID: 1 is obtained in response to the learning image of the class ID: 1 being supplied. Specifically, the convolutional neural networks learned by classifying the classes into “Coast”, “Akihabara”, “Shibuya”, “Tokyo Tower”, and “Tokyo Metropolitan Government” are “Coast”, “Akihabara”, “Shibuya”, “ According to the supply of recognition target images that include “Tokyo Tower” and “Tokyo Metropolitan Government” as main targets, classify as “Coast”, “Akihabara”, “Shibuya”, “Tokyo Tower”, and “Tokyo Metropolitan Government”. Can do.
In this learning process, the convolutional neural network includes, for example, those shown in FIGS. 3 to 5 as learning images. A learning image P10 shown in FIG. 3 is an image of a tower-like building (landmark) taken from a short distance and from below, and a learning image P11 shown in FIG. 4 is an image of a tower-like building from a long distance and from above. The learning image P12 shown in FIG. 5 is an image obtained by capturing a tower-like building at night.
In this learning process, the target recognition apparatus 1 performs the learning process on the entire learning image without extracting a specific object and cutting out candidate areas.
次に、上述したように構成された対象認識装置1における対象の認識処理について説明する。図6は、本発明の実施形態として示す対象認識装置1における認識処理の手順を示すフローチャートである。 Next, object recognition processing in the object recognition device 1 configured as described above will be described. FIG. 6 is a flowchart showing the procedure of recognition processing in the object recognition apparatus 1 shown as the embodiment of the present invention.
まず、画像変換部12は、認識対象画像が入力されるまで待機し(ステップS200)、認識対象画像が入力されたことに応じて(ステップS200:YES)、認識対象画像に任意面積の領域を複数設定する(ステップS202)。このとき、画像変換部12は、認識対象画像の特徴量を抽出し、当該抽出した特徴量に基づいて、認識対象画像内に含まれる特徴の大きさに応じた任意面積の領域(候補領域)を複数設定する。画像変換部12は、候補領域毎の画像を認識計算部14に供給する。 First, the image conversion unit 12 stands by until a recognition target image is input (step S200). In response to the input of the recognition target image (step S200: YES), a region having an arbitrary area is added to the recognition target image. A plurality are set (step S202). At this time, the image conversion unit 12 extracts a feature amount of the recognition target image, and based on the extracted feature amount, a region (candidate region) having an arbitrary area according to the size of the feature included in the recognition target image. Set more than one. The image conversion unit 12 supplies an image for each candidate area to the recognition calculation unit 14.
このとき、画像変換部12は、認識対象画像に設定された複数の候補領域のうち、所定の領域面積より小さい領域面積の候補領域を削除してもよい。この所定の領域面積は、認識対象画像のうち主な対象が含まれる割合が設定されることが望ましい。例えば、認識対象画像のうち画像を見る者が注目するような対象の大きさであればよい。この所定の領域面積は、予め設定されていてもよく、認識対象画像について設定された複数の候補領域の面積に基づいて設定してもよい。 At this time, the image conversion unit 12 may delete a candidate area having a smaller area than a predetermined area from a plurality of candidate areas set in the recognition target image. The predetermined area area is desirably set to a ratio in which the main target is included in the recognition target image. For example, the size of an object to be noticed by a person viewing the image among the recognition target images may be sufficient. The predetermined area may be set in advance, or may be set based on the areas of a plurality of candidate areas set for the recognition target image.
図7は、本発明を適用した対象認識装置1に入力される認識対象画像に設定された候補領域と、候補領域ごとの確信度の一例を示す図である。
図7に示すように、タワー状建造物が略中央位置に大きな画像面積で含まれる候補領域の画像として供給された場合、画像変換部12は、タワー状建造物Aを含む複数の候補領域と、タワー状建造物以外の建造物Bに設定された複数の候補領域と、建造物Cに設定された複数の候補領域とが設定される。
なお、画像変換部12は、図7に示すように、認識対象画像に含まれる物体について漏れが少なく複数の候補領域を設定できる手法であれば、候補領域を設定する既存の手法のどのような手法であればよい。
FIG. 7 is a diagram illustrating an example of candidate regions set in a recognition target image input to the target recognition device 1 to which the present invention is applied and a certainty factor for each candidate region.
As shown in FIG. 7, when the tower-like building is supplied as an image of a candidate area included in a substantially central position with a large image area, the image conversion unit 12 includes a plurality of candidate areas including the tower-like building A and A plurality of candidate areas set for the building B other than the tower-shaped building and a plurality of candidate areas set for the building C are set.
As shown in FIG. 7, the image conversion unit 12 can use any of the existing methods for setting candidate regions as long as it can set a plurality of candidate regions for an object included in the recognition target image with little leakage. Any technique can be used.
認識計算部14は、画像変換部12から領域候補を受け取り、学習結果データを用いて、画像変換部12から渡された領域画像に対して、クラスIDおよび確信度を算出する(ステップS204)。認識計算部14は、画像変換部12により設定された全ての候補領域について確信度の計算が完了するまで、次の候補領域の選択(ステップS208)と、クラスIDおよび確信度の計算(ステップS204)とを繰り返して行う。
認識計算部14は、全ての候補領域について確信度の計算が完了したことに応じて(ステップS206:YES)、マップ生成部16によって認識対象画像の位置毎に評価値を算出して、評価値のマップを生成する(ステップS210)。そして、位置算出部18は、マップ生成部16により生成されたマップに基づいて、認識対象画像に含まれる主な対象を表すクラスIDおよび位置をインターフェース部20に出力する(ステップS212)。
The recognition calculation unit 14 receives a region candidate from the image conversion unit 12, and uses the learning result data to calculate a class ID and a certainty factor for the region image passed from the image conversion unit 12 (step S204). The recognition calculation unit 14 selects the next candidate region (step S208) and calculates the class ID and the certainty factor (step S204) until the calculation of the certainty factor is completed for all candidate regions set by the image conversion unit 12. ) Is repeated.
The recognition calculation unit 14 calculates an evaluation value for each position of the recognition target image by the map generation unit 16 in response to the completion of the calculation of the certainty factor for all candidate regions (step S206: YES). Is generated (step S210). Then, based on the map generated by the map generation unit 16, the position calculation unit 18 outputs class IDs and positions representing main objects included in the recognition target image to the interface unit 20 (step S212).
図7に示す例において、複数の候補領域ごとにクラスIDごとの確信度が算出された様子を示す。図8は、本発明を適用した対象認識装置1におけるマップ生成部が評価値を算出する際に用いる候補領域ごとの確信度および面積との関係を例示した図である。図8において、面積は、百万ピクセルを超えた候補領域をカウントしている。タワー状建造物Aについては、図8(a)に示すように、確信度が高く且つ面積が大きい候補領域が多い。建造物Bについては、図8(b)に示すように、確信度が高いが、面積が小さい候補領域が多い。建造物Cについては、図8(c)に示すように、確信度が小さく、面積が小さい候補領域が多い。
図8に示すような特性を利用し、対象認識装置1は、クラスIDごとに認識対象画像の位置の確信度を統計処理し、統計処理した結果得た評価値が高い領域を主な対象が存在する領域であるとしてもよい。
In the example shown in FIG. 7, a state in which the certainty factor for each class ID is calculated for each of the plurality of candidate regions is shown. FIG. 8 is a diagram illustrating the relationship between the certainty factor and the area for each candidate region used when the map generation unit in the object recognition device 1 to which the present invention is applied calculates the evaluation value. In FIG. 8, the area counts candidate areas exceeding one million pixels. As for the tower-shaped building A, as shown in FIG. 8A, there are many candidate regions with high certainty factor and large area. As for the building B, as shown in FIG. 8B, the certainty factor is high, but there are many candidate regions having a small area. As for the building C, as shown in FIG. 8C, there are many candidate regions having a small certainty factor and a small area.
Using the characteristics as shown in FIG. 8, the object recognition apparatus 1 statistically processes the certainty of the position of the recognition target image for each class ID, and the main object is a region having a high evaluation value obtained as a result of the statistical processing. It may be an existing area.
図9は、本発明を適用した対象認識装置1において、認識対象画像Pを認識計算部14により認識し、マップ生成部16により作成されたマップが表す位置と評価値の関係を説明するために可視化した例を示す図であるこのマップは、クラスIDごとのTa(タワー型建造物)、Tb(山)、Tc、Te、Tfについて作成される。この図9が示す例では、クラスIDごとのマップは、統計処理の結果が高くなった評価値の位置ほど、高い輝度となるよう作成したものである。なお、マップは、評価値を演算する統計処理の相違により(a)〜(d)のように異なるが、図9に示した(a)〜(d)のマップのうちいずれを用いて対象の位置を算出してもよい。
位置算出部18は、それぞれのクラスIDのマップに対してエッジ抽出処理を実施し、評価値が段階的に高くなったエッジ線に囲まれる領域を抽出し、抽出された領域にクラスIDに対応した対象が存在すると判定してもよい。図9によれば、クラスIDがTa(タワー型建造物)のマップに対してエッジ抽出処理を実施することにより、認識対象画像の略中央位置に存在するTa(タワー型建造物)を抽出することができる。
これにより、対象認識装置1は、タワー型建造物を表すクラスID(Ta)と抽出したタワー型建造物の位置とを含む処理結果を、インターフェース部20から出力させることができる。
FIG. 9 is a diagram for explaining the relationship between the position represented by the map created by the map generation unit 16 and the evaluation value in the target recognition device 1 to which the present invention is applied, by the recognition calculation unit 14 recognizing the recognition target image P. This map showing an example of visualization is created for Ta (tower type building), Tb (mountain), Tc, Te, and Tf for each class ID. In the example shown in FIG. 9, the map for each class ID is created so that the higher the brightness of the position of the evaluation value at which the statistical processing result is higher. Although the maps differ as shown in (a) to (d) due to the difference in statistical processing for calculating the evaluation value, any of the maps (a) to (d) shown in FIG. The position may be calculated.
The position calculation unit 18 performs edge extraction processing on each class ID map, extracts a region surrounded by edge lines whose evaluation values are increased stepwise, and corresponds to the class ID in the extracted region. It may be determined that there is a target. According to FIG. 9, Ta (tower type building) existing at a substantially central position of the recognition target image is extracted by performing edge extraction processing on a map whose class ID is Ta (tower type building). be able to.
Thereby, the object recognition apparatus 1 can output the processing result including the class ID (Ta) representing the tower type building and the extracted position of the tower type building from the interface unit 20.
なお、図8に示した説明では、マップ生成部16により評価値のマップをクラスIDごとに作成したが、認識対象画像に含まれる可能性が低いクラスIDについては評価値のマップを作成しなくてもよい。確信度を統計処理して演算された評価値が低い場合には評価値のマップから主な対象が抽出されない可能性が高く、マップ生成部16は、このような評価値が演算されたクラスIDについてはマップを作成しないと判定する。
マップ生成部16は、マップの作成前に、マップの作成処理よりも少ない計算量で演算が可能な評価指標を演算する。マップ生成部16は、例えば、候補領域の面積および確信度をパラメータとした評価関数の合計値をクラスIDごとに求め、クラスID間で合計値を比較して、評価値のマップを作成するクラスIDと評価値のマップを作成しないクラスIDとを決定する。これにより、対象認識装置1は、主な対象の認識精度の低下を抑制しつつ、マップの作成についての処理量を抑制できる。
In the description shown in FIG. 8, the map of the evaluation value is created for each class ID by the map generation unit 16, but the evaluation value map is not created for the class ID that is unlikely to be included in the recognition target image. May be. When the evaluation value calculated by statistically processing the certainty factor is low, there is a high possibility that a main object is not extracted from the evaluation value map, and the map generation unit 16 calculates the class ID from which such an evaluation value is calculated. Is determined not to create a map.
The map generation unit 16 calculates an evaluation index that can be calculated with a smaller amount of calculation than the map generation process before the map is generated. For example, the map generation unit 16 obtains the total value of the evaluation function using the area of the candidate region and the certainty as parameters for each class ID, compares the total value between the class IDs, and creates a map of the evaluation value The ID and the class ID that does not create the evaluation value map are determined. Thereby, the object recognition apparatus 1 can suppress the processing amount about creation of a map, suppressing the fall of the recognition accuracy of the main object.
以上説明したように、本発明を適用した対象認識装置1によれば、認識対象画像内に任意面積の領域を複数設定し、各領域に含まれる対象候補の確信度を演算し、対象候補の確信度と、対象候補の位置とに基づいて対象候補ごとのマップを生成し、マップから対象の位置を特定するので、単に確信度が高い領域に含まれる対象が認識対象画像に含まれる主な対象であるという誤認識を抑制でき、より高い認識精度で認識対象画像内の主な対象を判定することができる。 As described above, according to the target recognition device 1 to which the present invention is applied, a plurality of regions having an arbitrary area are set in the recognition target image, the certainty factor of the target candidate included in each region is calculated, Since a map for each target candidate is generated based on the certainty factor and the position of the target candidate, and the position of the target is specified from the map, a target included in an area with a high certainty factor is simply included in the recognition target image. It is possible to suppress misrecognition of being a target, and to determine a main target in a recognition target image with higher recognition accuracy.
例えば、多数の建造物が含まれる市街地の風景や、多数の建造物が含まれているが単一のランドマークが含まれる風景が認識対象画像として入力されても、認識対象画像内で明確に含まれている単一の対象が認識対象画像における主な対象であるという分類結果を出力することを抑制できる。より具体的には、本発明を適用した対象認識装置1によれば、象徴的な町並みの市街地の名称を主な対象として認識でき、さらに、広い面積を占めるランドマークを主な対象として認識できる。 For example, even if a landscape of an urban area that includes a large number of buildings or a landscape that includes a large number of buildings but includes a single landmark is input as a recognition target image, it is clearly displayed in the recognition target image. It can suppress outputting the classification result that the single target included is the main target in the recognition target image. More specifically, according to the object recognition device 1 to which the present invention is applied, it is possible to recognize a symbolic townscape name as a main object, and further to recognize a landmark that occupies a large area as a main object. .
図10は、比較例としての認識対象画像P1に設定された候補領域の一例を示す。図11は、比較例としての認識対象画像P1に設定された他の候補領域の一例を示す。
比較例として、図10に示した候補領域A1、B1、C1の画像を畳み込みニューラルネットワークに入力して得た確信度のみに基づいて、畳み込みニューラルネットワークから出力されたランドマークを分類結果として得ると、認識対象画像P1について設定した候補領域A1、B1、C1のうち、候補領域B1の確信度が最も高くなる。しかし、認識対象画像P1に含まれる主な対象は建造物T1であり、候補領域A1の画像に含まれる。
FIG. 10 shows an example of candidate areas set in the recognition target image P1 as a comparative example. FIG. 11 shows an example of another candidate region set in the recognition target image P1 as a comparative example.
As a comparative example, when the landmarks output from the convolutional neural network are obtained as classification results based only on the certainty obtained by inputting the images of the candidate areas A1, B1, and C1 shown in FIG. 10 into the convolutional neural network. Of the candidate areas A1, B1, and C1 set for the recognition target image P1, the certainty factor of the candidate area B1 is the highest. However, the main target included in the recognition target image P1 is the building T1, and is included in the image of the candidate area A1.
同様に、比較例として、図11に示した候補領域A2、B2、C2の画像を畳み込みニューラルネットワークに入力して得た確信度のみに基づいて、畳み込みニューラルネットワークから出力されたランドマークを分類結果として得ると、認識対象画像P2について設定した候補領域A2、B2、C2のうち、候補領域B2の確信度が最も高くなる。しかし、認識対象画像P2に含まれる主な対象は建造物T2であり、候補領域A2の画像に含まれる。 Similarly, as a comparative example, the landmarks output from the convolutional neural network are classified based on only the certainty factor obtained by inputting the images of the candidate areas A2, B2, and C2 shown in FIG. 11 to the convolutional neural network. As a result, among the candidate areas A2, B2, and C2 set for the recognition target image P2, the certainty factor of the candidate area B2 is the highest. However, the main target included in the recognition target image P2 is the building T2, and is included in the image of the candidate area A2.
このように、比較例のように、認識対象画像に複数の対象が含まれている場合、確信度のみに基づいて認識対象画像に含まれる主な対象を認識すると誤認識が発生する場合がある。
これに対し、本発明を適用した対象認識装置1によれば、候補領域ごとにクラスIDおよび確信度を演算し、クラスIDごとに確信度を統計処理するので、例えば図10または図11に示したように、候補領域のうち面積の広い候補領域に含まれる対象が主な対象として認識できる確率を高めることができる。
As described above, when a plurality of targets are included in the recognition target image as in the comparative example, erroneous recognition may occur when the main target included in the recognition target image is recognized based only on the certainty factor. .
On the other hand, according to the object recognition device 1 to which the present invention is applied, the class ID and the certainty factor are calculated for each candidate area, and the certainty factor is statistically processed for each class ID. As described above, it is possible to increase the probability that an object included in a candidate area having a large area among candidate areas can be recognized as a main object.
さらに、本発明を適用した対象認識装置1によれば、学習処理部24により、外部から供給された学習画像の全体を用いて学習するので、認識対象画像の全体に含まれる対象を認識するように学習することができ、より高い認識精度で認識対象画像内の主な対象を判定することができる。 Furthermore, according to the object recognition device 1 to which the present invention is applied, learning is performed using the entire learning image supplied from the outside by the learning processing unit 24, so that the object included in the entire recognition target image is recognized. The main object in the recognition target image can be determined with higher recognition accuracy.
すなわち、本発明を適用した対象認識装置1によれば学習処理において正解となる対象を切り出す必要がないので、学習画像のうち正解となる対象が学習画像のどの位置に含まれていようとも、学習画像の全体について学習処理を行うことができ、認識処理において画像全体において主な対象がどのような形態で含まれていても、高い認識精度で認識対象画像内の主な対象を判定することができる。 That is, according to the object recognition device 1 to which the present invention is applied, there is no need to cut out a correct object in the learning process, so that no matter what position of the learning image the correct object is included in the learning image Learning processing can be performed on the entire image, and it is possible to determine the main target in the recognition target image with high recognition accuracy, regardless of the form of the main target included in the entire image in the recognition processing. it can.
具体的には、既存の技術のように特定の物体を認識できるように教師データを作成しておいて特徴をマッチングすると、風景(例えば市街地、大通りなどのような、物体の領域が区別されにくい画像や、近景から遠景に亘って見え方が大きく異なる大型の建造物には認識性能が発揮できないが、本発明を適用した対象認識装置1によれば、風景等の画像全体について学習処理を行って、風景等の画像であっても高い認識精度で主な対象を認識できる。 Specifically, when teacher data is created so that a specific object can be recognized as in the existing technology and features are matched, landscapes (for example, urban areas, main streets, etc.) are difficult to distinguish object regions. Although recognition performance cannot be exhibited for images and large buildings that differ greatly in appearance from near view to distant view, according to the object recognition device 1 to which the present invention is applied, learning processing is performed on the entire image such as landscape. Thus, even an image such as a landscape can recognize a main object with high recognition accuracy.
さらに本発明を適用した対象認識装置1によれば、学習処理のために正解となる対象を含む画像を切り出す必要がないので、学習処理の前処理の処理量を抑制でき、例えば、インターネット等において利用されている一般的な画像を学習画像として利用でき、学習処理の効率を高めることができる。また、本発明を適用した対象認識装置1によれば、1つの学習画像について1つのラベルとなるように学習画像を編集する必要がないため、学習処理の前処理のために専用の教師画像を用意する必要が無く、処理量をさらに抑制できる。 Furthermore, according to the object recognition apparatus 1 to which the present invention is applied, since it is not necessary to cut out an image including an object that is a correct answer for the learning process, the processing amount of the pre-processing of the learning process can be suppressed. A general image used can be used as a learning image, and the efficiency of the learning process can be increased. Further, according to the object recognition device 1 to which the present invention is applied, it is not necessary to edit the learning image so that one learning image becomes one label, and therefore a dedicated teacher image is used for preprocessing of the learning processing. There is no need to prepare, and the processing amount can be further suppressed.
さらに、本発明を適用した対象認識装置1によれば、画像変換部12により設定された複数の領域のうち、重複した複数の領域についての複数の確信度を統計処理するので、高い確信度であって重複した領域が多いほど、認識対象画像に含まれる主な対象であるという誤認識を抑制でき、より高い認識精度で認識対象画像内の主な対象を判定することができる。 Furthermore, according to the object recognition device 1 to which the present invention is applied, since a plurality of certainty levels for a plurality of overlapping areas among the plurality of areas set by the image conversion unit 12 are statistically processed, a high certainty level is obtained. As the number of overlapping regions increases, it is possible to suppress misrecognition of being a main target included in the recognition target image, and to determine the main target in the recognition target image with higher recognition accuracy.
さらに、本発明を適用した対象認識装置1によれば、画像変換部12により設定された複数の領域のうち、重複した複数の領域についての複数の確信度に加えて候補領域の面積に基づいて統計処理するので、高い確信度であって面積が広い候補領域ほど、認識対象画像に含まれる主な対象であるという誤認識を抑制でき、より高い認識精度で認識対象画像内の主な対象を判定することができる。 Furthermore, according to the object recognition device 1 to which the present invention is applied, based on the area of the candidate region in addition to the plurality of certainty factors regarding the plurality of overlapping regions among the plurality of regions set by the image conversion unit 12. Since statistical processing is performed, a candidate area with a high certainty factor and a large area can suppress misrecognition that it is a main target included in the recognition target image, and can detect a main target in the recognition target image with higher recognition accuracy. Can be determined.
さらに、本発明を適用した対象認識装置1によれば、認識対象画像に設定された複数の領域のうち、所定の領域面積より小さい領域面積の領域を削除するので、各領域の領域面積に基づいて認識対象画像に含まれる対象を特定することを利用して、処理負荷を少なくしても、高い認識精度で認識対象画像内の主な対象を判定することができる。 Furthermore, according to the object recognition device 1 to which the present invention is applied, the area having a smaller area than the predetermined area is deleted from the plurality of areas set in the recognition target image. By identifying the target included in the recognition target image, the main target in the recognition target image can be determined with high recognition accuracy even if the processing load is reduced.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.
また、上述した対象認識装置1の機能を実現するためのコンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
Further, a computer program for realizing the function of the object recognition device 1 described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Good. Here, the “computer system” may include an OS and hardware such as peripheral devices.
“Computer-readable recording medium” refers to a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a DVD (Digital Versatile Disk), and a built-in computer system. A storage device such as a hard disk.
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
1…対象認識装置、12…画像変換部、14…認識計算部、16…マップ生成部、18…位置算出部、20…インターフェース部、22…学習画像蓄積部、200…画像処理装置、202…画像生成部、204…AR処理部 DESCRIPTION OF SYMBOLS 1 ... Object recognition apparatus, 12 ... Image conversion part, 14 ... Recognition calculation part, 16 ... Map generation part, 18 ... Position calculation part, 20 ... Interface part, 22 ... Learning image storage part, 200 ... Image processing apparatus, 202 ... Image generation unit, 204... AR processing unit
Claims (7)
前記画像変換部により設定された各候補領域に含まれる画像情報に対して認識処理を行い、前記各候補領域に対象候補ごとの確信度を計算する認識計算部と、
前記認識対象画像の各位置において、当該位置で重複する複数の候補領域について、前記認識対象画像に含まれる対象候補を表す各クラスIDごとに、前記確信度を合計した評価値を算出し、前記各クラスIDごとに、前記認識対象画像の各位置における前記評価値の分布をマップとして生成するマップ生成部と、
前記マップ生成部により作成されたマップに基づいて対象の位置を特定する位置算出部と、
を有する、対象認識装置。 An image conversion unit that sets a plurality of candidate areas of arbitrary area in the recognition target image;
A recognition calculation unit that performs recognition processing on image information included in each candidate region set by the image conversion unit, and calculates a certainty factor for each target candidate in each candidate region;
At each position of the recognition target image, for each of the plurality of candidate regions overlapping at the position, for each class ID representing the target candidate included in the recognition target image, calculate an evaluation value that sums the certainty factor, For each class ID, a map generation unit that generates a distribution of the evaluation values at each position of the recognition target image as a map;
A position calculation unit that identifies a target position based on the map created by the map generation unit;
An object recognition device.
前記画像変換部により設定された各候補領域に含まれる画像情報に対して認識処理を行い、前記各候補領域に対象候補ごとの確信度を計算する認識計算部と、
前記認識対象画像の各位置において、当該位置の候補領域について、認識対象画像に含まれる対象候補を表す各クラスIDごとに、前記確信度と、当該候補領域の面積に応じた係数とをパラメータとし、前記面積が大きいほど値が大きくなる評価値を算出し、前記クラスIDごとに、前記認識対象画像の各位置における前記評価値の分布をマップとして生成するマップ生成部と、
前記マップ生成部により作成されたマップに基づいて対象の位置を特定する位置算出部と、
を有する、対象認識装置。 An image conversion unit that sets a plurality of candidate areas of arbitrary area in the recognition target image;
A recognition calculation unit that performs recognition processing on image information included in each candidate region set by the image conversion unit, and calculates a certainty factor for each target candidate in each candidate region;
At each position of the recognition target image, for each class ID representing the target candidate included in the recognition target image, the certainty factor and a coefficient corresponding to the area of the candidate region are used as parameters for the candidate region at the position. A map generation unit that calculates an evaluation value that increases as the area increases, and generates a distribution of the evaluation value at each position of the recognition target image as a map for each class ID ;
A position calculation unit that identifies a target position based on the map created by the map generation unit;
An object recognition device.
前記画像変換部により設定された各候補領域に含まれる画像情報に対して認識処理を行い、前記各候補領域に対象候補ごとの確信度を計算する認識計算部と、
前記認識対象画像の各位置において、当該位置で重複する複数の候補領域について、前記認識対象画像に含まれる対象候補を表す各クラスIDごとに、前記確信度の合計値と、前記重複する複数の候補領域の面積に応じた係数とをパラメータとし、前記面積が大きいほど値が大きくなる評価値を算出し、前記各クラスIDごとに、前記認識対象画像の各位置における前記評価値の分布をマップとして生成するマップ生成部と、
前記マップ生成部により作成されたマップに基づいて対象の位置を特定する位置算出部と、
を有する、対象認識装置。 An image conversion unit that sets a plurality of candidate areas of arbitrary area in the recognition target image;
A recognition calculation unit that performs recognition processing on image information included in each candidate region set by the image conversion unit, and calculates a certainty factor for each target candidate in each candidate region;
At each position of the recognition target image, for each of the plurality of candidate areas overlapping at the position, for each class ID representing the target candidate included in the recognition target image, the total value of the certainty factor and the plurality of overlapping multiple A coefficient corresponding to the area of the candidate region is used as a parameter, an evaluation value that increases as the area increases is calculated, and the distribution of the evaluation value at each position of the recognition target image is mapped for each class ID. A map generator to generate as
A position calculation unit that identifies a target position based on the map created by the map generation unit;
An object recognition device.
請求項1から3のうち何れか1項に記載の対象認識装置。 The image conversion unit extracts a feature amount of the recognition target image, sets a candidate region according to the size of the feature included in the recognition target image based on the extracted feature amount, and the recognition target Deleting a candidate area having a smaller area than a predetermined area from a plurality of candidate areas set in the image;
The object recognition device according to any one of claims 1 to 3.
前記学習処理部は、外部から供給された学習画像の全体を用いて学習結果を生成し、
前記認識計算部は、前記画像変換部により設定された候補領域の画像と、前記学習結果とを用いて対象候補の確信度を計算する、
請求項1から4のうち何れか1項に記載の対象認識装置。 A learning processing unit for learning a target based on a learning image;
The learning processing unit generates a learning result using the entire learning image supplied from the outside,
The recognition calculation unit calculates the certainty factor of the target candidate using the image of the candidate area set by the image conversion unit and the learning result.
The object recognition device according to any one of claims 1 to 4.
前記各候補領域に含まれる画像情報に対して認識処理を行い、前記各候補領域に対象候補ごとの確信度を計算するステップと、
前記認識対象画像の各位置において、当該位置で重複する複数の候補領域について、前記認識対象画像に含まれる対象候補を表す各クラスIDごとに、前記確信度を合計した評価値を算出し、前記各クラスIDごとに、前記認識対象画像の各位置における前記評価値の分布をマップとして生成するステップと、
前記マップに基づいて対象の位置を特定するステップと、
を有する、対象認識方法。 Setting a plurality of candidate areas of arbitrary area in the recognition target image;
Recognizing the image information included in each candidate area, calculating a certainty factor for each target candidate in each candidate area;
At each position of the recognition target image, for each of the plurality of candidate regions overlapping at the position, for each class ID representing the target candidate included in the recognition target image, calculate an evaluation value that sums the certainty factor, Generating a distribution of the evaluation values at each position of the recognition target image as a map for each class ID ;
Identifying a target location based on the map ;
An object recognition method comprising:
認識対象画像に任意面積の候補領域を複数設定させ、
前記各候補領域に含まれる画像情報に対して認識処理を行い、前記各候補領域に対象候補ごとの確信度を計算させ、
前記認識対象画像の各位置において、当該位置で重複する複数の候補領域について、前記認識対象画像に含まれる対象候補を表す各クラスIDごとに、前記確信度を合計した評価値を算出し、前記各クラスIDごとに、前記認識対象画像の各位置における前記評価値の分布をマップとして生成させ、
前記マップに基づいて対象の位置を特定させる、ためのプログラム。 On the computer,
Set multiple candidate areas of arbitrary area in the recognition target image,
Recognizing the image information included in each candidate area, causing each candidate area to calculate a certainty factor for each target candidate,
At each position of the recognition target image, for each of the plurality of candidate regions overlapping at the position, for each class ID representing the target candidate included in the recognition target image, calculate an evaluation value that sums the certainty factor, For each class ID, the distribution of the evaluation values at each position of the recognition target image is generated as a map ,
A program for specifying a position of an object based on the map .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014244417A JP6440303B2 (en) | 2014-12-02 | 2014-12-02 | Object recognition device, object recognition method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014244417A JP6440303B2 (en) | 2014-12-02 | 2014-12-02 | Object recognition device, object recognition method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016110232A JP2016110232A (en) | 2016-06-20 |
JP6440303B2 true JP6440303B2 (en) | 2018-12-19 |
Family
ID=56124405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014244417A Active JP6440303B2 (en) | 2014-12-02 | 2014-12-02 | Object recognition device, object recognition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6440303B2 (en) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018025752A1 (en) | 2016-08-02 | 2018-02-08 | エンゼルプレイングカード株式会社 | Game management system |
CN118800008A (en) | 2015-08-03 | 2024-10-18 | 天使集团股份有限公司 | Cheating detection system for casino |
EP3306558A3 (en) | 2015-08-03 | 2018-05-23 | Angel Playing Cards Co., Ltd. | Substitute currency for gaming, inspection device, and manufacturing method of substitute currency for gaming, and management system for table games |
US11074780B2 (en) | 2015-08-03 | 2021-07-27 | Angel Playing Cards Co., Ltd. | Management system of substitute currency for gaming |
US10970962B2 (en) | 2015-08-03 | 2021-04-06 | Angel Playing Cards Co., Ltd. | Management system of substitute currency for gaming |
US10957156B2 (en) | 2016-09-12 | 2021-03-23 | Angel Playing Cards Co., Ltd. | Chip measurement system |
MY194693A (en) | 2016-02-01 | 2022-12-15 | Angel Playing Cards Co Ltd | Game token management system |
US10795024B2 (en) * | 2016-09-16 | 2020-10-06 | Sony Semiconductor Solutions Corporation | Imaging device and electronic device |
JP6581068B2 (en) * | 2016-11-11 | 2019-09-25 | 株式会社東芝 | Image processing apparatus, image processing method, program, operation control system, and vehicle |
JP2018090096A (en) * | 2016-12-02 | 2018-06-14 | 株式会社エンルートM’s | Unmanned jetting device, jetting method and jetting program |
JPWO2018116851A1 (en) * | 2016-12-21 | 2019-10-24 | 株式会社ニコン | Information processing apparatus, image processing apparatus, microscope, information processing method, and information processing program |
CN108572183B (en) * | 2017-03-08 | 2021-11-30 | 清华大学 | Inspection apparatus and method of segmenting vehicle image |
JP6787831B2 (en) * | 2017-03-30 | 2020-11-18 | Kddi株式会社 | Target detection device, detection model generation device, program and method that can be learned by search results |
EP3657401B1 (en) | 2017-08-10 | 2023-09-13 | Mitsubishi Electric Corporation | Identification/classification device and identification/classification method |
AU2018378777A1 (en) | 2017-12-05 | 2020-06-25 | Angel Group Co., Ltd. | Management system |
EP3779872A4 (en) * | 2018-04-05 | 2021-05-19 | Koito Manufacturing Co., Ltd. | Operation processing device, object identifying system, learning method, automobile, and lighting appliance for vehicle |
JP7297470B2 (en) | 2019-03-05 | 2023-06-26 | キヤノン株式会社 | Image processing method, image processing apparatus, program, image processing system, and method for manufacturing trained model |
JP7357454B2 (en) | 2019-03-25 | 2023-10-06 | 三菱電機株式会社 | Feature identification device, feature identification method, and feature identification program |
JP7362284B2 (en) * | 2019-03-29 | 2023-10-17 | キヤノン株式会社 | Image processing method, image processing device, program, image processing system, and learned model manufacturing method |
JP7365697B2 (en) * | 2020-01-17 | 2023-10-20 | 国立大学法人東京農工大学 | Program and clustering device |
WO2021161410A1 (en) * | 2020-02-12 | 2021-08-19 | 三菱電機株式会社 | Object recognition device, driving assistance device, server, and object recognition method |
JP7409947B2 (en) * | 2020-04-14 | 2024-01-09 | 清水建設株式会社 | information processing system |
KR20230117662A (en) | 2022-02-01 | 2023-08-08 | 엔제루 구루푸 가부시키가이샤 | Management system |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010160640A (en) * | 2009-01-07 | 2010-07-22 | Seiko Epson Corp | Image processor, printer, image processing method and image processing program |
WO2012124000A1 (en) * | 2011-03-17 | 2012-09-20 | 日本電気株式会社 | Image recognition system, image recognition method, and nontemporary computer- readable medium in which program for image recognition is stored |
JP5823270B2 (en) * | 2011-11-30 | 2015-11-25 | Kddi株式会社 | Image recognition apparatus and method |
JP2013182478A (en) * | 2012-03-02 | 2013-09-12 | Nikon Corp | Subject tracking device, subject tracking method, and camera |
JP6115940B2 (en) * | 2013-03-22 | 2017-04-19 | 株式会社メガチップス | Human detection device |
JP6110174B2 (en) * | 2013-03-26 | 2017-04-05 | 株式会社メガチップス | Image detection apparatus, control program, and image detection method |
-
2014
- 2014-12-02 JP JP2014244417A patent/JP6440303B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016110232A (en) | 2016-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6440303B2 (en) | Object recognition device, object recognition method, and program | |
JP6992590B2 (en) | Feature expression device, feature expression method, and program | |
WO2019218824A1 (en) | Method for acquiring motion track and device thereof, storage medium, and terminal | |
US9298976B2 (en) | Method, apparatus and computer readable recording medium for managing a reference face database to improve face recognition performance under a restricted memory environment | |
US9665962B2 (en) | Image distractor detection and processng | |
US10769466B2 (en) | Precision aware drone-based object mapping based on spatial pattern recognition | |
US20150379371A1 (en) | Object Detection Utilizing Geometric Information Fused With Image Data | |
US9741121B2 (en) | Photograph localization in a three-dimensional model | |
CN108009529B (en) | Forest fire smoke video target detection method based on characteristic root and hydrodynamics | |
CN108664526B (en) | Retrieval method and device | |
AU2018202767B2 (en) | Data structure and algorithm for tag less search and svg retrieval | |
JP2014531097A (en) | Text detection using multi-layer connected components with histograms | |
CN110909724B (en) | Thumbnail generation method of multi-target image | |
US20130022244A1 (en) | Image processing apparatus and image processing method | |
CN112270745B (en) | Image generation method, device, equipment and storage medium | |
CN111523537A (en) | Character recognition method, storage medium and system | |
JP4926266B2 (en) | Learning data creation device, learning data creation method and program | |
US20220414393A1 (en) | Methods and Systems for Generating Composite Image Descriptors | |
JP5890340B2 (en) | Image classification device and image classification program | |
JP6244887B2 (en) | Information processing apparatus, image search method, and program | |
JP6281207B2 (en) | Information processing apparatus, information processing method, and program | |
JP2018180879A (en) | Object recognition device, object recognition system, and object recognition method | |
CN114387651B (en) | Face recognition method, device, equipment and storage medium | |
CN114626483A (en) | Landmark image generation method and device | |
CN115375742A (en) | Method and system for generating depth image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6440303 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |