JP2018055521A - Detector, detection method and detection system - Google Patents
Detector, detection method and detection system Download PDFInfo
- Publication number
- JP2018055521A JP2018055521A JP2016192639A JP2016192639A JP2018055521A JP 2018055521 A JP2018055521 A JP 2018055521A JP 2016192639 A JP2016192639 A JP 2016192639A JP 2016192639 A JP2016192639 A JP 2016192639A JP 2018055521 A JP2018055521 A JP 2018055521A
- Authority
- JP
- Japan
- Prior art keywords
- moving
- region
- area
- shape data
- detection device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、検出装置、検出方法および検出システムに関する。 The present invention relates to a detection device, a detection method, and a detection system.
従来、移動物体を検出する技術として様々な技術が開示されている。例えば、ITV(Industrial TeleVision)カメラによって撮像された映像から移動物体が存在する領域(以下、「移動物体領域」とも言う。)を検出し、検出した移動物体領域に基づいて物体追跡テンプレートを作成し、作成した物体追跡テンプレートを用いて移動物体を追跡する技術が開示されている(例えば、特許文献1参照)。 Conventionally, various techniques have been disclosed as techniques for detecting a moving object. For example, an area where a moving object exists (hereinafter also referred to as a “moving object area”) is detected from an image captured by an ITV (Industrial TeleVision) camera, and an object tracking template is created based on the detected moving object area. A technique for tracking a moving object using the created object tracking template is disclosed (for example, see Patent Document 1).
しかしながら、形状が既知である移動物体をより高精度に検出することが可能な技術が提供されることが望まれる。 However, it is desirable to provide a technique that can detect a moving object having a known shape with higher accuracy.
上記問題を解決するために、本発明のある観点によれば、映像から移動領域を検出して移動領域検出結果データを得る移動領域検出部と、前記移動領域検出結果データにおける複数の領域それぞれについて前記移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価する評価部と、前記複数の領域の中に、前記あてはまり度合いが閾値を超える領域が存在するか否かを判定する判定部と、を備える、検出装置が提供される。 In order to solve the above problem, according to one aspect of the present invention, a moving area detection unit that detects a moving area from video and obtains moving area detection result data, and each of a plurality of areas in the moving area detection result data An evaluation unit that evaluates the degree of fit between a moving pixel group that constitutes the moving area and shape data prepared in advance, and whether or not there is an area in which the degree of fit exceeds a threshold value in the plurality of areas. And a determination unit for determining.
また、本発明の他の観点によれば、映像から移動領域を検出して移動領域検出結果データを得ることと、前記移動領域検出結果データにおける複数の領域それぞれについて前記移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価することと、前記複数の領域の中に、前記あてはまり度合いが閾値を超える領域が存在するか否かを判定することと、を備える、検出方法が提供される。 According to another aspect of the present invention, a moving region is detected from an image to obtain moving region detection result data, and a moving pixel that constitutes the moving region for each of a plurality of regions in the moving region detection result data Detecting the degree of fit between the group and the shape data prepared in advance, and determining whether or not there is a region where the degree of fit exceeds a threshold value in the plurality of regions. A method is provided.
また、本発明の他の観点によれば、映像を撮像するカメラと検出装置とを有する検出システムであって、前記検出装置は、映像から移動領域を検出して移動領域検出結果データを得る移動領域検出部と、前記移動領域検出結果データにおける複数の領域それぞれについて前記移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価する評価部と、前記複数の領域の中に、前記あてはまり度合いが閾値を超える領域が存在するか否かを判定する判定部と、を備える、検出システムが提供される。 According to another aspect of the present invention, there is provided a detection system including a camera that captures an image and a detection device, wherein the detection device detects a movement region from the image and obtains movement region detection result data. An area detection unit, an evaluation unit for evaluating the degree of fit between a moving pixel group constituting the moving region and shape data prepared in advance for each of the plurality of regions in the moving region detection result data, and among the plurality of regions And a determination unit that determines whether or not there is a region in which the degree of fit exceeds a threshold value.
以上説明したように本発明によれば、形状が既知である移動物体をより高精度に検出することが可能となる。 As described above, according to the present invention, a moving object having a known shape can be detected with higher accuracy.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。 In the present specification and drawings, a plurality of constituent elements having substantially the same or similar functional configuration are distinguished by attaching different numerals to the same reference numerals. Further, similar constituent elements of different embodiments are distinguished by attaching different alphabets after the same reference numerals. However, when there is no need to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.
(0.背景)
まず、本発明の実施形態の背景について説明する。移動物体を検出する技術として様々な技術が開示されている。例えば、ITVカメラによって撮像された映像から移動物体領域を検出し、検出した移動物体領域に基づいて物体追跡テンプレートを作成し、作成した物体追跡テンプレートを用いて移動物体を追跡する技術が開示されている。かかる技術においては、移動物体領域の検出に際して、背景差分法またはオプティカルフローによって、複数のフレーム間で移動が生じた領域(以下、「移動領域」とも言う。)が検出される。
(0. Background)
First, the background of the embodiment of the present invention will be described. Various techniques have been disclosed as techniques for detecting a moving object. For example, a technique for detecting a moving object region from an image captured by an ITV camera, creating an object tracking template based on the detected moving object region, and tracking the moving object using the created object tracking template is disclosed. Yes. In such a technique, when a moving object area is detected, an area in which movement has occurred between a plurality of frames (hereinafter also referred to as “moving area”) is detected by a background difference method or an optical flow.
しかし、背景差分法またはオプティカルフローによっては、移動領域が高精度に検出されないという状況が起こり得る。かかる状況について、詳細に説明する。図1A〜図1Cそれぞれは、映像に含まれる画像の例およびその映像から検出された移動領域の例を示す図である。 However, depending on the background difference method or the optical flow, a situation may occur in which the moving region is not detected with high accuracy. This situation will be described in detail. 1A to 1C are diagrams illustrating examples of images included in a video and examples of moving areas detected from the video.
図1Aを参照すると、カメラによって撮像された画像G10−1が示されている。画像G10−1には、移動物体G11−1として左向きに移動する乗用車が写っている。また、図1Aを参照すると、移動物体G11−1が存在する領域(移動物体領域)を検出するために、カメラによって撮像された映像から背景差分法またはオプティカルフローによって検出された移動領域G21−1(移動領域G21−1を該当位置に含む移動領域検出結果データG20−1)が示されている。 Referring to FIG. 1A, an image G10-1 captured by a camera is shown. The image G10-1 shows a passenger car that moves to the left as the moving object G11-1. Further, referring to FIG. 1A, in order to detect a region (moving object region) where the moving object G11-1 exists, the moving region G21-1 detected by the background subtraction method or the optical flow from the video imaged by the camera. (Movement area detection result data G20-1 including movement area G21-1 at the corresponding position) is shown.
また、図1Bを参照すると、カメラによって撮像された画像G10−2が示されている。画像G10−2には、移動物体G11−2として左向きに移動するトラックが写っている。また、図1Bを参照すると、移動物体G11−2が存在する領域(移動物体領域)を検出するために、カメラによって撮像された映像から背景差分法またはオプティカルフローによって検出された移動領域G21−2(移動領域G21−1を該当位置に含む移動領域検出結果データG20−2)が示されている。 Referring to FIG. 1B, an image G10-2 captured by the camera is shown. The image G10-2 shows a track that moves to the left as the moving object G11-2. Referring to FIG. 1B, in order to detect a region (moving object region) where the moving object G11-2 exists, the moving region G21-2 detected by the background subtraction method or the optical flow from the video imaged by the camera. (Moving area detection result data G20-2 including the moving area G21-1 at the corresponding position) is shown.
また、図1Cを参照すると、カメラによって撮像された画像G10−3が示されている。画像G10−3には、移動物体G11−3として左向きに移動する航空機が写っている。また、図1Cを参照すると、移動物体G11−3が存在する領域(移動物体領域)を検出するために、カメラによって撮像された映像から背景差分法またはオプティカルフローによって検出された移動領域G21−3(移動領域G21−1を該当位置に含む移動領域検出結果データG20−3)が示されている。 Also, referring to FIG. 1C, an image G10-3 captured by the camera is shown. The image G10-3 shows an aircraft that moves to the left as the moving object G11-3. Further, referring to FIG. 1C, in order to detect a region (moving object region) where the moving object G11-3 exists, the moving region G21-3 detected by the background subtraction method or the optical flow from the video imaged by the camera. (Movement area detection result data G20-3 including the movement area G21-1 at the corresponding position) is shown.
例えば、図1Aを参照すると、画像G10−1においては、移動物体G11−1の全体が左向きに移動しているため、移動物体G11−1が存在する領域の全体が移動領域として検出されるのが理想的である。しかし、実際には、移動物体G11−1が存在する領域のうち、移動物体G11−1の中央領域における映像上の変化が小さいため、移動物体G11−1の中央領域が移動領域G21−1として検出されない(移動領域G21−1が移動物体G11−1の移動方向に分離してしまう)という状況が生じ得る。 For example, referring to FIG. 1A, in the image G10-1, since the entire moving object G11-1 is moving leftward, the entire area where the moving object G11-1 exists is detected as the moving area. Is ideal. However, in practice, since the change in the image in the central area of the moving object G11-1 is small in the area where the moving object G11-1 exists, the central area of the moving object G11-1 is set as the moving area G21-1. There may be a situation in which it is not detected (the moving region G21-1 is separated in the moving direction of the moving object G11-1).
同様の状況は、図1Bおよび図1Cに示した例においても生じ得る。このように、カメラによって撮像された映像から背景差分法またはオプティカルフローによって移動領域が検出され、検出された移動領域が移動物体領域として扱われる場合、移動物体領域の検出精度が向上しない場合がある。移動物体領域の検出精度が向上しない場合、移動物体領域に対して所定の処理(例えば、保存あるいは高品位伝送など)を行ったとしても、移動物体の一部に対してしか所定の処理がされなくなってしまう場合があり得る。 A similar situation can occur in the examples shown in FIGS. 1B and 1C. As described above, when the moving area is detected from the video imaged by the camera by the background subtraction method or the optical flow, and the detected moving area is treated as the moving object area, the detection accuracy of the moving object area may not be improved. . If the detection accuracy of the moving object area does not improve, even if a predetermined process (for example, storage or high-quality transmission) is performed on the moving object area, the predetermined process is performed only on a part of the moving object. It can be lost.
そこで、本発明の実施形態においては、移動物体を所定方向から見た2次元モデル(以下、「見え方モデル」とも言う。)に基づく形状データがあらかじめ用意されている。そして、検出装置(以下、「移動物体領域検出装置」とも言う。)は、形状データを用いて映像から移動物体を検出する。かかる構成によれば、形状が既知である移動物体がより高精度に検出される。以下では、形状データを用いて映像から移動物体を検出することが可能な技術について主に説明する。 Therefore, in the embodiment of the present invention, shape data based on a two-dimensional model (hereinafter also referred to as “appearance model”) obtained by viewing a moving object from a predetermined direction is prepared in advance. A detection device (hereinafter also referred to as a “moving object region detection device”) detects a moving object from an image using shape data. According to this configuration, a moving object whose shape is known is detected with higher accuracy. Below, the technique which can detect a moving object from an image | video using shape data is mainly demonstrated.
以上、本発明の実施形態の背景について説明した。 The background of the embodiment of the present invention has been described above.
(1.第1の実施形態)
まず、本発明の第1の実施形態について説明する。
(1. First embodiment)
First, a first embodiment of the present invention will be described.
(1−1.検出システムの構成)
図2を参照しながら、本発明の第1の実施形態に係る検出システム1Aの構成例について説明する。図2は、本発明の第1の実施形態に係る検出システム1Aの構成例を示した説明図である。なお、図2に示した構成例は、後に説明する本発明の第2の実施形態に係る検出システム1Bの構成例に対しても同様に適用され得る。図2に示したように、検出システム1Aは、カメラ10および移動物体領域検出装置20Aを備える。
(1-1. Configuration of detection system)
A configuration example of the
カメラ10と移動物体領域検出装置20Aとは、相互に通信可能に構成されている。図2に示した例では、カメラ10と移動物体領域検出装置20Aとがネットワークを介さずに直接的に接続されている。しかし、カメラ10と移動物体領域検出装置20Aとは、ネットワークを介して接続されていてもよい。カメラ10と移動物体領域検出装置20Aとがネットワークを介して接続されている場合、ネットワークには、複数のカメラ10が接続されていてもよいし、複数の移動物体領域検出装置20Aが接続されていてもよい。
The
本実施形態においては、カメラ10が固定カメラであり、同一の撮像範囲における画像を連続的に撮像することによって同一の撮像範囲における映像を得る場合(例えば、カメラ10が監視カメラである場合)を主に想定する。しかし、カメラ10は、固定カメラに限定されない。例えば、カメラ10は、撮像範囲を変更可能な変動カメラであってもよい。変動カメラは、パン・チルト・ズームが可能なPTZカメラであってよい。カメラ10は、撮像した映像を移動物体領域検出装置20Aに出力する。
In the present embodiment, the
図3は、カメラ10によって撮像される画像の例を示す図である。図3を参照すると、カメラ10によって撮像された画像G10−4が示されている。画像G10−4には、移動物体G11−4および移動物体G11−5が写っている。本明細書においては、図3に示したように、カメラ10が飛行場に設置され、移動物体が航空機である場合を主に説明する。しかし、カメラ10が設置される場所は、車両が走行する道路、船舶の通過する航路および電車の線路などであってもよい(移動物体は、車両、船舶および電車などであってもよい)。
FIG. 3 is a diagram illustrating an example of an image captured by the
移動物体領域検出装置20Aは、形状データを用いてカメラ10によって撮像された映像から、移動物体が存在するか否かを検出する。移動物体領域検出装置20Aは、移動物体が存在する領域(移動物体領域)を検出した場合、移動物体領域に関する情報、および、形状データに関する情報のうち、少なくともいずれか一方を、図示しない他の装置(例えば、図示しない記録装置、カメラ10など)に出力する。当該他の装置は、移動物体領域検出装置20Aから出力された情報を記録する。
The moving object
以上、本発明の第1の実施形態に係る検出システム1Aの構成例について説明した。
The configuration example of the
(1−2.移動物体領域検出装置の機能構成)
続いて、本発明の第1の実施形態に係る移動物体領域検出装置20Aの機能構成例について説明する。図4は、本発明の第1の実施形態に係る移動物体領域検出装置20Aの機能構成例を示すブロック図である。図4に示したように、本発明の第1の実施形態に係る移動物体領域検出装置20Aは、制御部210A、通信部230および記憶部240を備える。
(1-2. Functional Configuration of Moving Object Area Detection Device)
Subsequently, a functional configuration example of the moving object
制御部210Aは、移動物体領域検出装置20Aの動作全体を制御する機能を有し、専用のハードウェアによって構成されてもよいし、移動物体領域検出装置20Aに内蔵されたCPUがROMに記憶されたプログラムをRAMに展開して実行することにより実現されてもよい。かかるプログラムが提供され得る他、かかるプログラムを記憶させた記憶媒体も提供され得る。制御部210Aは、移動領域検出部211A、評価部212、判定部213および出力制御部214を備える。
The
通信部230は、カメラ10との間で各種情報を送受信するための通信インタフェースである。例えば、通信部220は、カメラ10から映像を受信することが可能である。また、例えば、通信部230は、図示しない他の装置(例えば、図示しない記録装置、カメラ10など)に対して、移動物体領域に関する情報、および、形状データに関する情報のうち、少なくともいずれか一方を送信してもよい。
The
記憶部240は、制御部210Aを動作させるためのプログラムやデータを記憶することができる。また、記憶部240は、制御部210Aの動作の過程で必要となる各種データを一時的に記憶することもできる。本発明の第1の実施形態では、記憶部240は、形状データを記憶することができる。
The
(1−3.移動物体領域検出装置の機能詳細)
続いて、本発明の第1の実施形態に係る移動物体領域検出装置20Aの機能詳細について説明する。図5は、本発明の第1の実施形態に係る移動物体領域検出装置20Aの動作例を示すフローチャートである。図5に示したように、本発明の第1の実施形態に係る移動物体領域検出装置20Aにおいて、制御部210Aは、カメラ10によって撮像された最新の映像フレーム(画像)が通信部230によって受け取られたか否かを判定する(S11)。
(1-3. Detailed Function of Moving Object Area Detection Device)
Subsequently, functional details of the moving object
制御部210Aは、カメラ10によって撮像された最新の映像フレーム(画像)が通信部230によって受け取られなかった場合(S11において「No」)、動作を終了する。一方、移動領域検出部211Aは、カメラ10によって撮像された最新の映像フレーム(画像)が通信部230によって受け取られた場合(S11において「Yes」)、映像から移動領域を検出する(S12)。例えば、移動領域検出部211Aは、背景差分法またはオプティカルフローに基づいて、移動領域を検出する。
When the latest video frame (image) captured by the
図6は、移動領域検出部211Aによって検出される移動領域の例を示す図である。図6に示すように、移動領域検出部211Aによって、移動領域G21−4および移動領域G21−5が検出される(移動領域G21−4および移動領域G21−5を含む移動領域検出結果データG20−4が示されている)。図6に示された例では、移動領域G21が2つ検出されているが、検出される移動領域G21の数は、2つに限定されず、3つ以上であってもよいし、1つであってもよい。
FIG. 6 is a diagram illustrating an example of a moving area detected by the moving
ここで、図1A〜図1Cを参照しながら説明した例と同様に、移動物体G11−4(図3)の中央領域は移動領域G21−4として検出されない(移動領域G21−4が移動物体G11−4(図3)の移動方向に分離してしまう)。同様に、移動物体G11−5(図3)の中央領域は移動領域G21−5として検出されない(移動領域G21−5が移動物体G11−5(図3)の移動方向に分離してしまう)。 Here, as in the example described with reference to FIGS. 1A to 1C, the central region of the moving object G11-4 (FIG. 3) is not detected as the moving region G21-4 (the moving region G21-4 is the moving object G11). -4 (FIG. 3). Similarly, the central area of the moving object G11-5 (FIG. 3) is not detected as the moving area G21-5 (the moving area G21-5 is separated in the moving direction of the moving object G11-5 (FIG. 3)).
移動領域検出部211Aは、移動領域G21−4および移動領域G21−5とそれ以外の領域とが、区別されるように移動領域検出結果データを生成する。以下の説明においては、移動領域検出結果データG20−4において、移動領域G21−4および移動領域G21−5の各画素に「1」が設定され、それ以外の領域の各画素に「0」が設定される場合を主に想定する。しかし、移動領域G21−4および移動領域G21−5に設定される画素値は、「1」以外であってもよい。
The movement
続いて、評価部212は、移動領域検出結果データG20−4における複数の領域それぞれについて移動領域G21−4および移動領域G21−5を構成する画素群(以下、「移動画素群」とも言う。)と形状データとのあてはまり度合いを評価する。
Subsequently, the
図7は、形状データの例を示す図である。図7を参照すると、形状データH10−1〜H10−5が示されている。本明細書においては、形状データH10−1〜H10−5があらかじめ用意され、記憶部240によって記憶されている場合を想定する。ただし、形状データの数は5種類に限定されず、1種類であってもよいし、5種類以外の複数種類であってもよい。
FIG. 7 is a diagram illustrating an example of shape data. Referring to FIG. 7, shape data H10-1 to H10-5 are shown. In this specification, it is assumed that the shape data H10-1 to H10-5 are prepared in advance and stored in the
また、図7に示した例では、形状データH10−1は、移動物体(例えば、航空機)を所定方向から見た2次元モデルの全部に相当する第1の領域(以下、「見え方モデル領域」とも言う。)H11−1、および、第1の領域H11−1以外の第2の領域(以下、「背景領域」とも言う。)が、区別されるように生成されている(見え方モデル領域H11−1の各画素と背景領域の各画素とに異なる画素値が設定されている)。 In the example shown in FIG. 7, the shape data H <b> 10-1 is a first area (hereinafter referred to as “appearance model area”) corresponding to the entire two-dimensional model of a moving object (for example, an aircraft) viewed from a predetermined direction. H11-1 and a second region other than the first region H11-1 (hereinafter, also referred to as “background region”) are generated so as to be distinguished (appearance model). Different pixel values are set for each pixel in the region H11-1 and each pixel in the background region).
以下の説明においては、形状データH10−1において、見え方モデル領域H11−1の各画素に「1」が設定され、背景領域の各画素に「0」が設定されている場合を主に想定する。しかし、後にも説明するように、見え方モデル領域H11−1に設定される画素値は、「1」以外であってもよい。同様に、形状データH10−2〜H10−5も、見え方モデル領域H11−2〜H11−5と各背景領域とが区別されるように生成されている(異なる画素値が設定されている)。 In the following description, it is mainly assumed that in the shape data H10-1, “1” is set for each pixel in the appearance model region H11-1 and “0” is set for each pixel in the background region. To do. However, as will be described later, the pixel value set in the appearance model region H11-1 may be other than “1”. Similarly, the shape data H10-2 to H10-5 are generated so that the appearance model regions H11-2 to H11-5 and the background regions are distinguished (different pixel values are set). .
なお、形状データH10−1〜H10−5は、手動で生成されてもよいし、コンピュータによって自動的に生成されてもよい。例えば、形状データH10−1〜H10−5が手動で生成される場合、データ生成者は、各方向から見た移動物体(例えば、航空機)の概形を、見え方モデル領域H11−1〜H11−5の輪郭として描き、これらの輪郭に基づいて、形状データH10−1〜H10−5を生成すればよい。 The shape data H10-1 to H10-5 may be manually generated or automatically generated by a computer. For example, when the shape data H10-1 to H10-5 are manually generated, the data generator displays the rough shape of the moving object (for example, an aircraft) viewed from each direction as the appearance model regions H11-1 to H11. What is necessary is just to draw as outline of -5 and generate shape data H10-1 to H10-5 based on these outlines.
あてはまり度合いの評価に利用される複数の領域はどのように設定されてもよい。以下の説明においては、形状データH10−1〜H10−5を縦方向または横方向に1画素ずつずらしながら移動領域検出結果データG20−4の上に重ね合わせたときに、形状データH10−1〜H10−5が移動領域検出結果データG20−4に重なる各領域をあてはまり度合いの評価に利用する。しかし、形状データH10−1〜H10−5のずらし量は、1画素ずつに限定されず、複数画素ずつであってもよい。 A plurality of areas used for evaluation of the degree of fit may be set in any way. In the following description, when the shape data H10-1 to H10-5 are superimposed on the moving area detection result data G20-4 while shifting one pixel at a time in the vertical direction or the horizontal direction, the shape data H10-1 to H10-1 are superimposed. Each region where H10-5 overlaps the moving region detection result data G20-4 is used for the evaluation of the degree of fit. However, the shift amount of the shape data H10-1 to H10-5 is not limited to one pixel, but may be a plurality of pixels.
このとき、評価部212は、移動領域検出結果データG20−4における複数の領域それぞれについて移動領域G21−4および移動領域G21−5を構成する画素群(移動画素群)と見え方モデル領域(例えば、見え方モデル領域H11−1)との間において重なり合う画素数に基づいて、あてはまり度合いを評価してよい。以下の説明においては、重なり合う画素数自体があてはまり度合いとして扱われる場合を主に想定する。しかし、以下に説明するように、あてはまり度合いは、重なり合う画素数自体に限定されない。
At this time, the
あてはまり度合いの評価のより具体的な例を説明する。以下の説明において、T(x,y)は、移動領域検出結果データG20−4における任意の座標位置(x,y)において使用可能な形状データの集合を示す。ここでは、形状データの集合として、形状データH10−1〜H10−5を想定する。Tnは、形状データの集合T(x,y)から抽出されるn個目の形状データを示す。 A more specific example of the evaluation of the degree of fit will be described. In the following description, T (x, y) indicates a set of shape data that can be used at an arbitrary coordinate position (x, y) in the moving region detection result data G20-4. Here, shape data H10-1 to H10-5 are assumed as a set of shape data. Tn indicates the nth shape data extracted from the shape data set T (x, y).
Tn(i,j)には、n個目の形状データにおける任意の座標位置(i,j)が見え方モデル領域の内部であれば「1」が設定されている。例えば、n個目の形状データが形状データH10−1である場合、Tn(i,j)には、形状データH10−1における任意の座標位置(i,j)が見え方モデル領域H11−1の内部であれば「1」が設定されている。一方、Tn(i,j)には、n個目の形状データにおける任意の座標位置(i,j)が見え方モデル領域の外部であれば「0」が設定されている。 Tn (i, j) is set to “1” if an arbitrary coordinate position (i, j) in the nth shape data is inside the appearance model area. For example, when the nth shape data is the shape data H10-1, an arbitrary coordinate position (i, j) in the shape data H10-1 can be seen in Tn (i, j). Is set to “1”. On the other hand, Tn (i, j) is set to “0” if an arbitrary coordinate position (i, j) in the nth shape data is outside the appearance model region.
D(x+i,y+j)には、移動領域検出結果データG20−4における座標位置(x+i,y+j)が移動領域G21−4または移動領域G21−5の内部であれば「1」が設定されている。一方、D(x+i,y+j)には、座標位置(x+i,y+j)が移動領域G21−4または移動領域G21−5の外部であれば「0」が設定されている。ここで、移動領域の内部とは必ずしも検出された移動領域そのものではなく、移動領域で囲まれた範囲の内側としてもよい。 D (x + i, y + j) is set to “1” if the coordinate position (x + i, y + j) in the movement area detection result data G20-4 is inside the movement area G21-4 or movement area G21-5. . On the other hand, D (x + i, y + j) is set to “0” if the coordinate position (x + i, y + j) is outside the moving region G21-4 or the moving region G21-5. Here, the inside of the moving area is not necessarily the detected moving area itself, but may be inside the range surrounded by the moving area.
このとき、移動領域検出結果データG20−4における任意の座標位置(x,y)におけるあてはまり度合いが形状データの集合T(x,y)から抽出されるすべての形状データについて評価された場合、それらのあてはまり度合いの最大値S(x,y)は、以下の(数式1)によって表現される。 At this time, when the degree of fit at an arbitrary coordinate position (x, y) in the moving region detection result data G20-4 is evaluated for all the shape data extracted from the shape data set T (x, y), The maximum value S (x, y) of the degree of fit is expressed by the following (Formula 1).
なお、(数式1)においては、移動領域検出結果データG20−4における複数の領域それぞれについて移動領域G21−4および移動領域G21−5を構成する画素群(移動画素群)と見え方モデル領域(例えば、見え方モデル領域H11−1)との間において重なり合う画素数自体が、あてはまり度合いとして扱われる場合を想定している。しかし、上記したように、あてはまり度合いは、重なり合う画素数自体に限定されない。具体的な例について説明する。 In (Formula 1), the pixel group (moving pixel group) and the appearance model region (moving pixel group) constituting the moving region G21-4 and the moving region G21-5 for each of a plurality of regions in the moving region detection result data G20-4. For example, it is assumed that the number of pixels that overlap with the appearance model region H11-1) is treated as the degree of fit. However, as described above, the degree of fit is not limited to the number of overlapping pixels. A specific example will be described.
図8は、あてはまり度合いの評価の変形例を説明するための図である。図8を参照すると、移動領域検出結果データG20−4に移動領域G21−4および移動領域G21−5が含まれている。ここで、映像に地面が写る場合、映像に写る地面の上側よりも下側のほうがカメラに近いため、移動物体が大きく写ると考えられる。そこで、図8に示すように、形状データを大きくしながら下に移動させる場合もあり得る(見え方モデル領域H11−1、見え方モデル領域H11−1A、および、見え方モデル領域H11−1B)。 FIG. 8 is a diagram for explaining a modified example of the evaluation of the degree of fit. Referring to FIG. 8, the movement area detection result data G20-4 includes a movement area G21-4 and a movement area G21-5. Here, when the ground is shown in the video, it is considered that the moving object is shown large because the lower side of the ground shown in the video is closer to the camera. Therefore, as shown in FIG. 8, the shape data may be moved downward while being enlarged (the appearance model region H11-1, the appearance model region H11-1A, and the appearance model region H11-1B). .
このような場合には、形状データの大きさ自体が変化してしまうため、形状データが大きくなるほど重なり合う画素数自体も大きくなってしまう。そこで、このような場合には、形状データの全体の画素数に対して重なり合う画素数の割合があてはまり度合いとして扱われてもよい。あるいは、形状データを構成する画素数が形状データすべてにおいて同じであるとは限らない。このような場合にも、形状データの全体の画素数に対して重なり合う画素数の割合があてはまり度合いとして扱われてもよい。 In such a case, since the size of the shape data itself changes, the larger the shape data, the larger the number of overlapping pixels itself. Therefore, in such a case, the ratio of the number of overlapping pixels to the total number of pixels in the shape data may be treated as the degree of fit. Alternatively, the number of pixels constituting the shape data is not necessarily the same in all the shape data. Even in such a case, the ratio of the number of overlapping pixels to the total number of pixels in the shape data may be treated as the degree of fit.
図5に戻って説明を続ける。判定部213は、移動領域検出結果データG20−4における複数の領域の中に、あてはまり度合いが閾値を超える領域が存在するか否かを判定する。すなわち、判定部213によって、あてはまり度合いが閾値を超える領域が、見え方モデルのあてはまる位置として探索される(S13)。例えば、判定部213は、あてはまり度合いの最大値S(x,y)が閾値を超える座標位置(x,y)が存在するか否かを判定する。ここでは、移動領域G21−4および移動領域G21−5それぞれに対応するように、S(x,y)が閾値を超える座標位置(x,y)が2つ存在すると判定された場合を想定する。
Returning to FIG. The
図9は、あてはまり度合いの最大値S(x,y)が閾値を超える2つの座標位置それぞれに対して、あてはまり度合いを最大とした見え方モデルを重ね合わせた場合を示す図である。図9を参照すると、移動領域検出結果データG20−4に移動領域G21−4および移動領域G21−5が含まれている。移動領域G21−4には、見え方モデル領域H11−1Aが重ね合わされている。また、移動領域G21−5には、見え方モデル領域H11−5Cが重ね合わされている。 FIG. 9 is a diagram illustrating a case where the appearance model with the maximum degree of fit is superimposed on each of two coordinate positions where the maximum value S (x, y) of the degree of fit exceeds the threshold value. Referring to FIG. 9, the movement area detection result data G20-4 includes a movement area G21-4 and a movement area G21-5. An appearance model region H11-1A is superimposed on the movement region G21-4. Further, the appearance model region H11-5C is superimposed on the movement region G21-5.
図5に戻って説明を続ける。出力制御部214は、あてはまり度合いが閾値を超える領域(移動物体領域)が存在した場合に、移動物体領域に関する情報の出力を制御する(S14)。そして、制御部210は、S11に移行する。ここで、移動物体領域に関する情報は特に限定されないが、移動物体領域の所定位置(例えば、中心位置)の座標を含んでもよい。さらに、移動物体領域に関する情報は、移動物体領域の大きさ(例えば、移動物体領域の縦横の長さ)を含んでもよい。
Returning to FIG. The
あるいは、出力制御部214は、移動物体領域に対するあてはまり度合いが閾値を超えた形状データに関する情報の出力を制御してもよい。形状データに関する情報は特に限定されないが、形状データ自体を含んでもよい。あるいは、形状データに関する情報は、形状データの大きさ(例えば、形状データの矩形領域の縦横の長さ)を含んでもよい。あるいは、形状データに関する情報は、形状データに含まれる見え方モデルの輪郭を含んでもよい。
Alternatively, the
出力制御部214によって、移動物体領域に関する情報、および、形状データに関する情報のうち、少なくともいずれか一方(以下、「出力情報」とも言う。)の出力が制御された場合、出力情報は、図示しない他の装置(例えば、図示しない記録装置、カメラ10など)に出力される。当該他の装置は、出力情報を記録する。当該他の装置に記録された出力情報は、後に読み出されて利用され得る。
When the
以上においては、形状データH10−1が、移動物体を所定方向から見た2次元モデルの全部に相当する見え方モデル領域(第1の領域)H11−1を有する例を示した(例えば、図7)。しかし、移動物体を所定方向から見た2次元モデルの全部が利用されなくてもよい。すなわち、形状データH10−1は、移動物体を所定方向から見た2次元モデルの一部に相当する領域を見え方モデル領域(第1の領域)として有していてもよい。かかる例について具体的に説明する。 In the above, an example in which the shape data H10-1 has the appearance model region (first region) H11-1 corresponding to the entire two-dimensional model of the moving object viewed from a predetermined direction has been shown (for example, FIG. 7). However, the entire two-dimensional model of the moving object viewed from a predetermined direction may not be used. That is, the shape data H10-1 may have an area corresponding to a part of the two-dimensional model when the moving object is viewed from a predetermined direction as the appearance model area (first area). Such an example will be specifically described.
図10は、見え方モデル領域の変形例を示す図である。図10を参照すると、形状データH10−6が示されている。また、形状データH10−6は、移動物体(例えば、航空機)を所定方向から見た2次元モデルの一部に相当する領域を見え方モデル領域H11−6として有している。評価部212は、移動画素群と見え方モデル領域H11−6との間において重なり合う画素数に基づいて、あてはまり度合いを評価してよい。あてはまり度合いの評価については、既に述べた評価が適用され得る。
FIG. 10 is a diagram illustrating a modified example of the appearance model region. Referring to FIG. 10, shape data H10-6 is shown. Further, the shape data H10-6 includes a region corresponding to a part of a two-dimensional model when a moving object (for example, an aircraft) is viewed from a predetermined direction as a view model region H11-6. The
なお、見え方モデル領域H11−6には、画素ごとに値(画素値)が設定されていてよい。そして、評価部212は、移動画素群と見え方モデル領域H11−6との間において重なり合う各画素の値(画素値)の合計値に基づいて、あてはまり度合いを評価してもよい。例えば、合計値自体があてはまり度合いとして扱われてよいし、形状データの全体の画素数に対する合計値の割合があてはまり度合いとして扱われてもよい。このように、見え方モデル領域H11−6の画素ごとに値が設定されていれば、より高精度に移動物体領域が検出され得る。
It should be noted that a value (pixel value) may be set for each pixel in the appearance model region H11-6. Then, the
図10を参照すると、見え方モデル領域H11−6は、部位P1および部位P2を含んでいる。部位P2は、移動物体の移動方向の端部領域であり、部位P1は、部位P2に隣接する内側領域である。このとき、部位P2の各画素に対してより高い値(例えば、「2」など)が設定され、部位P1の各画素に対して次に高い値(例えば、「1」など)が設定され、他の領域(部位P0および背景領域)の各画素に対して「0」が設定されていてもよい。このように、移動領域として検出されやすい移動方向の端部に近い画素ほど高い値が設定されていてもよい。 Referring to FIG. 10, the appearance model region H11-6 includes a part P1 and a part P2. The site P2 is an end region in the moving direction of the moving object, and the site P1 is an inner region adjacent to the site P2. At this time, a higher value (for example, “2”, etc.) is set for each pixel in the part P2, and a next higher value (for example, “1”, etc.) is set for each pixel in the part P1, “0” may be set for each pixel in other regions (part P0 and background region). Thus, a higher value may be set for pixels closer to the end in the movement direction that are easily detected as the movement region.
上記では、評価部212が、複数の形状データについてあてはまり度合いを評価し、それらの最大値を評価し、判定部213が、最大値が閾値を超える領域が存在するか否かを判定する手法を例として説明した。しかし、複数の形状データについてあてはまり度合いを評価するために要する処理量が大きくなってしまう場合も想定される。
In the above, the
したがって、評価部212は、複数の形状データの中から1の形状データを選択データとして選択し、移動領域検出結果データにおける複数の領域それぞれについて移動画素群と選択データとのあてはまり度合いを評価してもよい。複数の形状データの中から1の形状データを選択データとして選択する手法としては、幾つかの手法が想定される。第1の手法について、図11を参照しながら説明する。
Therefore, the
図11は、形状データを選択するための第1の手法を説明するための図である。図11に示すように、時刻T0における移動物体の見え方が、見え方モデル領域H11−1に近いと予測された場合を想定する。かかる場合には、時刻T0に対して、見え方モデル領域H11−1を含む形状データH10−1があらかじめ対応付けられているとよい。同様な予測がされた場合、時刻T1〜T4それぞれに対して、形状データH10−4,H10−3,H10−2,H10−5が対応付けられてよい。 FIG. 11 is a diagram for explaining a first method for selecting shape data. As shown in FIG. 11, it is assumed that the appearance of the moving object at time T0 is predicted to be close to the appearance model region H11-1. In such a case, the shape data H10-1 including the appearance model region H11-1 may be associated with the time T0 in advance. When the same prediction is made, the shape data H10-4, H10-3, H10-2, and H10-5 may be associated with each of the times T1 to T4.
そして、評価部212は、複数の形状データの中から、現時点に対応する形状データを選択データとして選択すればよい。例えば、評価部212は、現時点として時刻T3を取得した場合には、時刻T3に対応付けられている形状データH10−2を選択データとして選択すればよい。このように、時刻の経過に伴った移動物体の見え方モデルの変化の情報があらかじめ登録されていれば、かかる変化の情報に基づいて、形状データが選択されるため、あてはまり度合いの評価に要する処理量が抑制され得る。
And the
図12は、形状データを選択するための第2の手法を説明するための図である。図12を参照すると、移動領域検出結果データG20−4において、範囲R1には、右向きへの移動物体の移動領域G21−4が含まれ、範囲R2には、左向きへの移動物体の移動領域G21−5が含まれている。このように、滑走路ごとの進行方向等により、領域ごとに移動物体の向きが決まる場合、移動物体の向きに対応する形状データが各領域に対応付けられているとよい。例えば、範囲R1には、移動物体の向き「右向き」に対応する形状データH10−1が対応付けられ、範囲R2には、移動物体の向き「左向き」に対応する形状データH10−5が対応付けられているとよい。 FIG. 12 is a diagram for explaining a second method for selecting shape data. Referring to FIG. 12, in the moving region detection result data G20-4, the range R1 includes a moving region G21-4 of the moving object to the right, and the range R2 includes the moving region G21 of the moving object to the left. -5 is included. As described above, when the direction of the moving object is determined for each region based on the traveling direction of each runway, shape data corresponding to the direction of the moving object may be associated with each region. For example, the shape data H10-1 corresponding to the moving object orientation “right” is associated with the range R1, and the shape data H10-5 corresponding to the moving object orientation “left” is associated with the range R2. It is good to have been.
そして、評価部212は、複数の形状データの中から、あてはまり度合いが評価される領域に対応する形状データを選択データとして選択すればよい。例えば、評価部212は、範囲R1に属する領域のあてはまり度合いを評価しようとする場合には、範囲R1に対応付けられている形状データH10−1を選択データとして選択すればよい。このように、領域ごとに形状データが対応付けられていれば、領域と形状データとの対応関係に基づいて、形状データが選択されるため、あてはまり度合いの評価に要する処理量が抑制され得る。
And the
図13は、形状データを選択するための第3の手法を説明するための図である。図13を参照すると、移動物体の向き「右向き」に対して、右向きの移動物体の見え方モデル領域H11−1を含む形状データH10−1が対応付けられている。同様に、移動物体の向き「左下向き」に対して、左下向きの見え方モデル領域H11−2を含む形状データH10−2が対応付けられ、移動物体の向き「下向き」に対して、下向きの見え方モデル領域H11−3を含む形状データH10−3が対応付けられている。 FIG. 13 is a diagram for explaining a third method for selecting shape data. Referring to FIG. 13, shape data H <b> 10-1 including a moving object appearance model region H <b> 11-1 is associated with the moving object direction “right”. Similarly, the shape data H10-2 including the downward-left appearance model region H11-2 is associated with the moving object orientation “downwardly left”, and the moving object orientation “downward” is downwardly directed. Shape data H10-3 including the appearance model region H11-3 is associated.
また、移動物体の向き「右下向き」に対して、右向きの見え方モデル領域H11−4を含む形状データH10−4が対応付けられ、移動物体の向き「左向き」に対して、左向きの見え方モデル領域H11−5を含む形状データH10−5が対応付けられている。ここで、移動領域検出部211Aによって、映像からオプティカルフローが検出される場合を想定する。このとき、評価部212は、オプティカルフローに基づいて、移動物体の向きを検出することが可能である。例えば、評価部212は、オプティカルフローと一致または類似する向きを移動物体の向きとして検出することが可能である。
Further, the shape data H10-4 including the right-looking appearance model region H11-4 is associated with the moving object orientation “downwardly right”, and the left-looking appearance with respect to the moving object orientation “leftward” is associated. Shape data H10-5 including the model region H11-5 is associated. Here, it is assumed that the optical flow is detected from the video by the moving
そして、評価部212は、複数の形状データの中から、移動物体の向きに対応する形状データを選択データとして選択すればよい。例えば、評価部212は、オプティカルフローが「右向き」である場合、オプティカルフローの向き「右向き」と一致する向き「右向き」を、移動物体の向きとして検出する。そして、評価部212は、移動物体の向き「右向き」に対応付けられている形状データH10−1を選択データとして選択すればよい。このように、移動物体の向きごとに形状データが対応付けられていれば、移動物体の向きと形状データとの対応関係に基づいて、形状データが選択されるため、あてはまり度合いの評価に要する処理量が抑制され得る。
And the
(1−4.効果)
本発明の第1の実施形態によれば、映像から移動領域を検出して移動領域検出結果データを得る移動領域検出部211Aと、移動領域検出結果データにおける複数の領域それぞれについて移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価する評価部212と、複数の領域の中に、あてはまり度合いが閾値を超える領域が存在するか否かを判定する判定部213と、を備える、移動物体領域検出装置20Aが提供される。
(1-4. Effects)
According to the first embodiment of the present invention, the moving
かかる構成によれば、形状が既知である移動物体をより高精度に検出することが可能となる。したがって、移動物体領域に対して所定の処理(例えば、保存あるいは高品位伝送など)を行った場合に、移動物体の全体に対して所定の処理がなされるようになるという効果が享受される。 According to this configuration, it is possible to detect a moving object whose shape is known with higher accuracy. Therefore, when a predetermined process (for example, storage or high-quality transmission) is performed on the moving object region, an effect that the predetermined process is performed on the entire moving object is enjoyed.
以上、本発明の第1の実施形態について説明した。 The first embodiment of the present invention has been described above.
(2.第2の実施形態)
続いて、本発明の第2の実施形態について説明する。本発明の第2の実施形態においては、カメラ10が何らかの理由で動きを有する場合を想定する。例えば、揺れによって、カメラ10が動きを有する場合もあり得る。あるいは、カメラ10がPTZカメラである場合には、パン操作またはチルト操作によって、カメラ10が動きを有する場合もあり得る。
(2. Second Embodiment)
Subsequently, a second embodiment of the present invention will be described. In the second embodiment of the present invention, it is assumed that the
ここで、カメラ10の動きには、カメラ10の回転が含まれ得る。また、カメラ10の動きには、カメラ10の並進が含まれ得る。例えば、カメラ10の並進は、カメラ10の回転軸と撮像位置との間にずれがある状態においてカメラ10が回転した場合に生じ得る。
Here, the movement of the
このように、カメラ10が何らかの理由で動きを有する場合には、移動物体の移動によってだけではなく、カメラ10の動きによっても映像が変化し得る。したがって、本発明の第2の実施形態においては、移動物体の移動による移動領域の検出精度を向上させるために、映像の変化からカメラ10の動きによる変化を除去し、カメラ10の動きによる変化が除去された後の映像の変化に基づいて、移動領域を検出する技術について主に説明する。
As described above, when the
(2−1.検出システムの構成)
まず、図2を参照しながら、本発明の第2の実施形態に係る検出システム1B(図2)の構成例について説明する。図2に示したように、本発明の第2の実施形態に係る検出システム1Bは、本発明の第1の実施形態に係る検出システム1Aと比較して、移動物体領域検出装置20Bの構成が移動物体領域検出装置20Aの構成と異なっている。そこで、本発明の第2の実施形態においては、移動物体領域検出装置20Bの構成例を主に説明する。
(2-1. Configuration of detection system)
First, a configuration example of a
(2−2.移動物体領域検出装置の機能構成)
続いて、本発明の第2の実施形態に係る移動物体領域検出装置20Bの機能構成例について説明する。図14は、本発明の第2の実施形態に係る移動物体領域検出装置20Bの機能構成例を示すブロック図である。図14に示したように、本発明の第2の実施形態に係る移動物体領域検出装置20Bは、本発明の第1の実施形態に係る移動物体領域検出装置20Aと比較して、制御部210Bの移動領域検出部211Bの構成が制御部210Aの移動領域検出部211Aの構成と異なる。そこで、本発明の第2の実施形態においては、移動領域検出部211Bの構成を主に説明する。
(2-2. Functional Configuration of Moving Object Area Detection Device)
Next, a functional configuration example of the moving object
(2−3.移動物体領域検出装置の機能詳細)
続いて、本発明の第2の実施形態に係る移動物体領域検出装置20Bの機能詳細について説明する。図15は、本発明の第2の実施形態に係る移動物体領域検出装置20Bの動作例を示すフローチャートである。図15に示したように、本発明の第2の実施形態に係る移動物体領域検出装置20Bにおいて、制御部210Bは、カメラ10によって撮像された最新の映像フレーム(画像)が通信部230によって受け取られたか否かを判定する(S11)。
(2-3. Detailed functions of moving object area detection device)
Subsequently, functional details of the moving object
制御部210Bは、カメラ10によって撮像された最新の映像フレーム(画像)が通信部230によって受け取られなかった場合(S11において「No」)、動作を終了する。一方、移動領域検出部211Bは、カメラ10によって撮像された最新の映像フレーム(画像)が通信部230によって受け取られた場合(S11において「Yes」)、映像からオプティカルフローを検出する(S21)。
When the latest video frame (image) captured by the
図16は、カメラ10が動きを有する場合に検出されるオプティカルフローの例を示す図である。図16に示すように、オプティカルフローF10には、カメラ10が動きを有する場合には、移動物体の移動によるオプティカルフローだけではなく、カメラ10の動きによるオプティカルフローも含まれる。特に、オプティカルフローF10は、カメラ10が右向きに回転するとともに、カメラの視点が左向きに並進した場合に検出されるオプティカルフローを示している。この並進はカメラが視点より前方の軸を中心に回転したために生じたものである。ただし、カメラ10の回転および並進それぞれの向きは特に限定されない。
FIG. 16 is a diagram illustrating an example of an optical flow detected when the
図16に示すように、カメラ10が右向きに回転している場合、画面全体にはカメラ10の回転とは逆向き(左向き)のオプティカルフローが現れる。ただし、回転に伴いカメラ10の視点が左向きに並進することで、画面全体にはカメラ10の並進とは逆向き(右向き)のオプティカルフローが現れる。これによって、左向きのオプティカルフローが僅かに抑制される。カメラ10の並進による左向きのオプティカルフローの抑制度合いは、カメラ10からの距離が近いほど強くなる。
As shown in FIG. 16, when the
すなわち、オプティカルフローF10に示すように、地面が写る地面の上側よりも下側のほうがカメラ10に近いため、左向きのオプティカルフローの抑制度合いは、映像に写る地面の上側よりも下側のほうが強くなる。また、空よりも地面のほうがカメラ10に近いため、左向きのオプティカルフローの抑制度合いは、映像に写る空よりも映像に写る地面のほうが強くなる。このように、画面全体にはカメラ10の動きによる左向きのオプティカルフローが現れる。
That is, as shown in the optical flow F10, the lower side of the upper side of the ground where the ground appears is closer to the
一方、オプティカルフローF10に示すように、(移動領域F11−1に対応する)移動物体は右向きに移動している。そのため、(移動領域F11−1に対応する)移動物体の移動方向(左右方向)における端部には、右向きのオプティカルフローが現れる。これによって、(移動領域F11−1に対応する)移動物体の移動方向(左右方向)における端部においては、カメラ10の動きによる左向きのオプティカルフローが僅かに抑制されている。
On the other hand, as shown in the optical flow F10, the moving object (corresponding to the moving area F11-1) is moving rightward. Therefore, a rightward optical flow appears at the end in the moving direction (left-right direction) of the moving object (corresponding to the moving region F11-1). As a result, the leftward optical flow due to the movement of the
また、オプティカルフローF10に示すように、(移動領域F11−2に対応する)移動物体は左向きに移動している。そのため、(移動領域F11−2に対応する)移動物体の移動方向(左右方向)における端部には、左向きのオプティカルフローが現れる。これによって、(移動領域F11−2に対応する)移動物体の移動方向(左右方向)における端部においては、カメラ10の動きによる左向きのオプティカルフローが強調されている。
Further, as shown in the optical flow F10, the moving object (corresponding to the moving area F11-2) is moving leftward. Therefore, a leftward optical flow appears at the end in the moving direction (left-right direction) of the moving object (corresponding to the moving region F11-2). As a result, the leftward optical flow due to the movement of the
図15に戻って説明を続ける。続いて、移動領域検出部211Bは、カメラ10の動き成分(カメラ10の動きによるオプティカルフロー)を生成する(S22)。カメラ10の動き成分には、カメラ10の回転による成分(カメラ10の回転によるオプティカルフロー)が考慮されてもよいし、カメラ10の回転に伴う視点の並進による成分(カメラ10の並進によるオプティカルフロー)がさらに考慮されてもよい。以下では、カメラ10の動き成分に、カメラ10の回転による成分とカメラ10の並進による成分との双方が考慮される例について説明する。
Returning to FIG. 15, the description will be continued. Subsequently, the moving
カメラ10の回転による成分は、カメラ10の単位角度(例えば、1度など)あたりの回転とその回転によって生じるオプティカルフローとの対応関係があらかじめ測定されていれば、移動領域検出部211Bによって、カメラ10の回転角度とその対応関係とに基づいて生成され得る。このとき、カメラ10の回転角度は、カメラ10の制御信号などから得られる。また、以下の説明では、カメラ10の回転角度として、カメラ10のパン・チルトを例に挙げて説明する。
If the correspondence between the rotation per unit angle (for example, 1 degree) of the
また、カメラ10の回転に伴う視点の並進による成分は、カメラ10から映像に写る物体までの距離(すなわち、映像に写る地面の角度、および、映像に写る地面と地面以外との境界位置)に依存し得る。そこで、カメラ10の向きと地面とのなす角度、および、カメラ10の地面からの高さなどのパラメータが決まれば、移動領域検出部211Bによって、そのパラメータに対応して画面上の座標位置(x,y)におけるカメラ10の並進による成分が決まる。これらのパラメータも、カメラ10の制御信号などから得られる。
Further, the component due to the translation of the viewpoint accompanying the rotation of the
カメラ10の回転による成分とカメラ10の並進による成分とのより具体的な生成例を説明する。いま、カメラ10による単位角度φあたりのパンによって画面上の座標位置(x,y)に無限遠点が写っている場合に生じるオプティカルフローを(X(φ),Y(φ))とする。また、カメラ10による単位角度ψあたりのチルトによって画面上の座標位置(x,y)に無限遠点が写っている場合に生じるオプティカルフローを(X(ψ),Y(ψ))とする。
A more specific example of generating the component due to the rotation of the
そして、カメラ10の実際のパン角度をΦとし、カメラ10の実際のチルト角度をΨとする。また、画面上の座標位置(x,y)におけるカメラ10の並進による成分をD(x,y)とする。このとき、画面上の座標位置(x,y)に実際に生じるオプティカルフローを(X(Φ,Ψ,x,y),Y(Φ,Ψ,x,y))とすると、(X(Φ,Ψ,x,y),Y(Φ,Ψ,x,y))は、以下の(数式2)および(数式3)によって表現される(カメラ10の回転による成分とカメラ10の並進による成分との乗算によって得られる)。
The actual pan angle of the
続いて、移動領域検出部211Bは、このように生成したカメラ10の動き成分(カメラ10の動きによるオプティカルフロー)を、映像から検出されたオプティカルフローから除去する。そして、移動領域検出部211Bは、映像から検出されたオプティカルフローから、カメラの動きによる成分が除去された後のオプティカルフローに基づいて、移動領域を検出する(S12)。移動領域の検出については、本発明の第1の実施形態における移動領域の検出と同様になされ得る。また、S13およびS14も、本発明の第1の実施形態において説明したようになされ得る。
Subsequently, the moving
(2−4.効果)
本発明の第2の実施形態によれば、映像から検出されるオプティカルフローから、映像を撮像するカメラ10の動きによる成分を除去した後のオプティカルフローに基づいて、移動領域を検出する移動領域検出部211Bを備えるとともに、本発明の第1の実施形態と同様に、評価部212および判定部213を備える、移動物体領域検出装置20Bが提供される。
(2-4. Effect)
According to the second embodiment of the present invention, the moving region detection for detecting the moving region based on the optical flow after removing the component due to the movement of the
かかる構成によれば、第1の実施形態と同様に、形状が既知である移動物体をより高精度に検出することが可能となる。したがって、移動物体領域に対して所定の処理(例えば、保存あるいは高品位伝送など)を行った場合に、移動物体の全体に対して所定の処理がなされるようになるという効果が享受される。 According to such a configuration, it is possible to detect a moving object having a known shape with higher accuracy, as in the first embodiment. Therefore, when a predetermined process (for example, storage or high-quality transmission) is performed on the moving object region, an effect that the predetermined process is performed on the entire moving object is enjoyed.
さらに、かかる構成によれば、カメラ10の動きによる成分を除外し、移動物体の移動による移動領域の検出精度を向上させるとともに、移動物体をより高精度に検出することが可能となる。一例として、カメラ10がPTZカメラであり、パン操作またはチルト操作によって、カメラ10が動きを有する場合であっても、移動物体をより高精度に検出することが可能となる。
Furthermore, according to such a configuration, it is possible to exclude a component due to the movement of the
以上、本発明の第2の実施形態について説明した。 The second embodiment of the present invention has been described above.
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
例えば、上記においては、出力制御部214によって、移動物体領域に関する情報、および、形状データに関する情報のうち、少なくともいずれか一方(出力情報)の出力が制御される場合について説明した。そして、出力情報は、図示しない他の装置(例えば、図示しない記録装置、カメラ10など)に出力される場合について説明した。しかし、出力情報の出力先は、図示しない記録装置およびカメラ10に限定されない。
For example, in the above description, the case where the
例えば、移動物体領域検出装置20Aが図示しないコンピュータと接続されている場合、出力情報は、コンピュータに送信されてもよい。このとき、コンピュータは、受信した出力情報に基づく所定の表示を行ってもよい。例えば、コンピュータは、映像を表示するとともに、受信した移動物体領域に関する情報に基づいて、映像における移動物体領域に所定の表示(例えば、赤い矩形枠の表示など)を行ってもよい。そうすれば、コンピュータが管制室に設置されている場合などに、管制官が移動物体の監視を行いやすくなる。
For example, when the moving object
また、例えば、カメラ10は、PTZカメラである場合、受信した移動物体領域に関する情報に基づいて、移動物体領域が映像の所定位置(例えば、中心位置)に写るようにパン・チルトを行ってもよい。このとき、カメラ10は、移動物体が拡大されて映像に写るようにズームを行ってもよい。そうすれば、移動物体が映像の見やすい位置に見やすいサイズで写るように自動的に移動物体が追尾される。あるいは、移動物体領域検出装置20Aがカメラ10とは異なるPTZカメラと接続されており、そのPTZカメラによって同様の動作がなされてもよい。
Further, for example, when the
あるいは、移動領域が検出された場合、かつ、あらかじめ用意された1または複数の形状データとのあてはまり度合いが閾値を超える領域が存在しない場合も想定される。このときは、検出された移動物体は、未知の移動物体である可能性がある。そこで、かかる場合、出力制御部214は、未知の移動物体の検出を知らせるための所定の出力(例えば、所定の視覚情報、所定の音声情報など)を制御してもよい。また、未知の移動物体は、不審物体や侵入者である可能性もあるため、未知の移動物体の検出を知らせるための所定の出力は、異常状態を知らせるための所定の出力であってもよい。
Alternatively, a case where a moving region is detected and a region where the degree of fit with one or a plurality of shape data prepared in advance exceeds a threshold value is also assumed. At this time, the detected moving object may be an unknown moving object. Therefore, in such a case, the
1(1A,1B) 検出システム
10 カメラ
20(20A,20B) 移動物体領域検出装置(検出装置)
210(210A,210B) 制御部
211(211A,211B) 移動領域検出部
212 評価部
213 判定部
214 出力制御部
220 通信部
230 通信部
240 記憶部
F10 オプティカルフロー
F11 移動領域
G11 移動物体
G20 移動領域検出結果データ
G21 移動領域
H10 形状データ
1 (1A, 1B)
210 (210A, 210B) Control unit 211 (211A, 211B) Moving
Claims (15)
前記移動領域検出結果データにおける複数の領域それぞれについて前記移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価する評価部と、
前記複数の領域の中に、前記あてはまり度合いが閾値を超える領域が存在するか否かを判定する判定部と、
を備える、検出装置。 A moving area detection unit that detects a moving area from video and obtains moving area detection result data;
An evaluation unit that evaluates the degree of fit between a moving pixel group that constitutes the moving region and shape data prepared in advance for each of a plurality of regions in the moving region detection result data;
A determination unit that determines whether or not there is a region in which the degree of fit exceeds a threshold value among the plurality of regions;
A detection device comprising:
前記あてはまり度合いが前記閾値を超える領域が存在した場合に、当該領域に関する情報、および、前記形状データに関する情報のうち、少なくともいずれか一方の出力を制御する出力制御部を備える、
請求項1に記載の検出装置。 The detection device includes:
An output control unit that controls the output of at least one of the information on the region and the information on the shape data when there is a region where the degree of fit exceeds the threshold;
The detection device according to claim 1.
請求項1に記載の検出装置。 In the shape data, a first area corresponding to all or part of a two-dimensional model of a predetermined moving object viewed from a predetermined direction and a second area other than the first area are distinguished. Generated,
The detection device according to claim 1.
請求項3に記載の検出装置。 The evaluation unit evaluates the degree of fit based on the number of pixels overlapping between the moving pixel group and the first region;
The detection device according to claim 3.
前記評価部は、前記移動画素群と前記第1の領域との間において重なり合う各画素の値の合計値に基づいて、前記あてはまり度合いを評価する、
請求項4に記載の検出装置。 In the first area, a value is set for each pixel,
The evaluation unit evaluates the degree of fit based on a total value of values of pixels that overlap between the moving pixel group and the first region.
The detection device according to claim 4.
前記判定部は、前記最大値が前記閾値を超える領域が存在するか否かを判定する、
請求項1に記載の検出装置。 The evaluation unit evaluates the maximum value of the degree of fit between the moving pixel group and the plurality of shape data for each of the plurality of regions.
The determination unit determines whether or not there is a region where the maximum value exceeds the threshold;
The detection device according to claim 1.
請求項1に記載の検出装置。 The evaluation unit selects one shape data from a plurality of shape data as selection data, and evaluates the degree of fit between the moving pixel group and the selection data for each of the plurality of regions.
The detection device according to claim 1.
請求項7に記載の検出装置。 The evaluation unit selects, as the selection data, shape data corresponding to the current time from the plurality of shape data.
The detection device according to claim 7.
請求項7に記載の検出装置。 The evaluation unit selects, as the selection data, shape data corresponding to a range to which the plurality of regions belong from the plurality of shape data.
The detection device according to claim 7.
請求項7に記載の検出装置。 The evaluation unit selects the selection data from the plurality of shape data based on an optical flow detected from the video.
The detection device according to claim 7.
前記移動領域が検出された場合、かつ、前記あてはまり度合いが前記閾値を超える領域が存在しない場合に、未知の移動物体の検出を知らせるための所定の出力を制御する出力制御部を備える、
請求項1に記載の検出装置。 The detection device includes:
An output control unit that controls a predetermined output for notifying detection of an unknown moving object when the moving region is detected and there is no region in which the degree of fit exceeds the threshold;
The detection device according to claim 1.
請求項1に記載の検出装置。 The moving area detection unit detects the moving area based on a background difference method or an optical flow.
The detection device according to claim 1.
請求項1に記載の検出装置。 The moving area detection unit detects the moving area based on an optical flow after removing a component due to a movement of a camera that captures the video from an optical flow detected from the video.
The detection device according to claim 1.
前記移動領域検出結果データにおける複数の領域それぞれについて前記移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価することと、
前記複数の領域の中に、前記あてはまり度合いが閾値を超える領域が存在するか否かを判定することと、
を備える、検出方法。 To detect the moving area from the video and obtain the moving area detection result data;
Evaluating a degree of fit between a moving pixel group constituting the moving area and shape data prepared in advance for each of a plurality of areas in the moving area detection result data;
Determining whether there is an area in which the degree of fit exceeds a threshold among the plurality of areas;
A detection method comprising:
前記検出装置は、
映像から移動領域を検出して移動領域検出結果データを得る移動領域検出部と、
前記移動領域検出結果データにおける複数の領域それぞれについて前記移動領域を構成する移動画素群とあらかじめ用意された形状データとのあてはまり度合いを評価する評価部と、
前記複数の領域の中に、前記あてはまり度合いが閾値を超える領域が存在するか否かを判定する判定部と、
を備える、検出システム。
A detection system having a camera for capturing video and a detection device,
The detection device includes:
A moving area detection unit that detects a moving area from video and obtains moving area detection result data;
An evaluation unit that evaluates the degree of fit between a moving pixel group that constitutes the moving region and shape data prepared in advance for each of a plurality of regions in the moving region detection result data;
A determination unit that determines whether or not there is a region in which the degree of fit exceeds a threshold value among the plurality of regions;
A detection system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016192639A JP2018055521A (en) | 2016-09-30 | 2016-09-30 | Detector, detection method and detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016192639A JP2018055521A (en) | 2016-09-30 | 2016-09-30 | Detector, detection method and detection system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018055521A true JP2018055521A (en) | 2018-04-05 |
Family
ID=61835849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016192639A Pending JP2018055521A (en) | 2016-09-30 | 2016-09-30 | Detector, detection method and detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018055521A (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09307876A (en) * | 1996-05-20 | 1997-11-28 | Meidensha Corp | Remote supervisory system |
JP2002279582A (en) * | 2001-03-22 | 2002-09-27 | Toshiba Corp | Vehicle type discriminating device and its method |
JP2005078445A (en) * | 2003-09-01 | 2005-03-24 | Matsushita Electric Works Ltd | Image processing system |
JP2013050924A (en) * | 2011-08-31 | 2013-03-14 | Toshiba Tec Corp | Store system and program |
JP2014135039A (en) * | 2012-12-13 | 2014-07-24 | Denso Corp | Moving object detection device |
-
2016
- 2016-09-30 JP JP2016192639A patent/JP2018055521A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09307876A (en) * | 1996-05-20 | 1997-11-28 | Meidensha Corp | Remote supervisory system |
JP2002279582A (en) * | 2001-03-22 | 2002-09-27 | Toshiba Corp | Vehicle type discriminating device and its method |
JP2005078445A (en) * | 2003-09-01 | 2005-03-24 | Matsushita Electric Works Ltd | Image processing system |
JP2013050924A (en) * | 2011-08-31 | 2013-03-14 | Toshiba Tec Corp | Store system and program |
JP2014135039A (en) * | 2012-12-13 | 2014-07-24 | Denso Corp | Moving object detection device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10878584B2 (en) | System for tracking object, and camera assembly therefor | |
US7385626B2 (en) | Method and system for performing surveillance | |
TWI764024B (en) | Method and camera system combining views from plurality of cameras | |
JP4568009B2 (en) | Monitoring device with camera cooperation | |
EP3419283B1 (en) | System and method for tracking moving objects in a scene | |
US20100013917A1 (en) | Method and system for performing surveillance | |
KR101530255B1 (en) | Cctv system having auto tracking function of moving target | |
KR101916467B1 (en) | Apparatus and method for detecting obstacle for Around View Monitoring system | |
KR101695249B1 (en) | Method and system for presenting security image | |
GB2593335A (en) | Method and apparatus for 3-D auto tagging | |
KR101496390B1 (en) | System for Vehicle Number Detection | |
US9319641B2 (en) | Controlling movement of a camera to autonomously track a mobile object | |
JP2016127571A (en) | Camera system, display control device, display control method, and program | |
JPWO2020174916A1 (en) | Shooting system | |
US20170264877A1 (en) | Pan/tilt/zoom camera based video playing method and apparatus | |
JP2016092693A (en) | Imaging apparatus, imaging apparatus control method, and program | |
JP2005142683A (en) | Apparatus and method for camera control | |
KR102285078B1 (en) | Remote detection and tracking of objects | |
JP6032283B2 (en) | Surveillance camera management device, surveillance camera management method, and program | |
JP2001245284A (en) | Method and system for supervising intruding object | |
JP2009301175A (en) | Monitoring method | |
KR101686797B1 (en) | Method for analyzing a visible area of a closed circuit television considering the three dimensional features | |
JP2005057743A (en) | Object tracking method and object tracking apparatus | |
CN112639405A (en) | State information determination method, device, system, movable platform and storage medium | |
JP2018055521A (en) | Detector, detection method and detection system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200707 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210105 |