JP2845850B2 - Automatic target detection method - Google Patents
Automatic target detection methodInfo
- Publication number
- JP2845850B2 JP2845850B2 JP8338479A JP33847996A JP2845850B2 JP 2845850 B2 JP2845850 B2 JP 2845850B2 JP 8338479 A JP8338479 A JP 8338479A JP 33847996 A JP33847996 A JP 33847996A JP 2845850 B2 JP2845850 B2 JP 2845850B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- detection
- sound
- processing
- frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Geophysics And Detection Of Objects (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は所定の音源をもつ目標の
自動検出方式に関し、特に発動機関を有する移動物体に
対する目標自動検出方式に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for automatically detecting a target having a predetermined sound source, and more particularly to a method for automatically detecting a target having a moving engine.
【0002】[0002]
【従来の技術】従来、この種の目標自動検出方式は入力
された音響信号をスペクトル分析し、その結果得られる
周波数、振幅、ドップラー周波数情報等に着目して目標
を検出している。2. Description of the Related Art Conventionally, in this type of automatic target detection system, an input audio signal is subjected to spectrum analysis, and a target is detected by paying attention to frequency, amplitude, Doppler frequency information and the like obtained as a result.
【0003】図11に従来のこの種の音源の目標自動検
出方式の基本的構成の一例を示す。図においてトランス
デューサー群1は音源から発生された音響信号の音圧レ
ベルを電圧に変換する。増幅2及びバンドパスフィルタ
3は音響信号を増幅し、必要な周波数帯域外の信号を減
衰させる。ベースバンド変換4及びローパスフィルタ5
は処理の容易性及び構成するH/Wの簡易化の為に局部
発信器出力と周波数混合し、局部発信周波数を中心とし
て広がる中間周波数に変換される。A/D変換6はアナ
ログの音響信号をディジタル信号に変換し、指向性合成
7は信号対雑音比(以下、S/Nと称する)の向上及び
方位分解能の向上のため個々のトランスデューサーの位
相を合わせて指向性ビームを作る。フーリエ変換8は指
向性合成された結果の信号を、従事する周波数帯域内の
すべての周波数成分を含む広帯域の信号から一定時間内
の狭帯域の周波数別の信号に変換するためにフーリエ変
換し、フーリエ成分として出力する。位相演算9はビー
ム間のフーリエ成分の位相差を用いて方位を算出し、振
幅演算10はフーリエ成分よりパワースペクトルを算出
する。目標判定10はパワースペクトルの時間の経過に
対する周波数の移り変わり(ドップラー情報13)を特
定周波数12等をデータベースとして有しているリファ
レンスと比較したり、予め目標の特徴を学習させたニュ
ーラルネットを用いたりして目標と判定し、方位ととも
に自動検出目標として出力する。FIG. 11 shows an example of a basic configuration of a conventional automatic target detection system for this type of sound source. In the figure, a transducer group 1 converts a sound pressure level of an acoustic signal generated from a sound source into a voltage. The amplifier 2 and the band-pass filter 3 amplify the acoustic signal and attenuate signals outside the required frequency band. Baseband conversion 4 and low-pass filter 5
Is frequency-mixed with the local oscillator output for ease of processing and simplification of the H / W configuration, and is converted to an intermediate frequency that spreads around the local oscillator frequency. The A / D converter 6 converts an analog sound signal into a digital signal, and the directivity synthesis 7 uses the phase of each transducer to improve a signal-to-noise ratio (hereinafter, referred to as S / N) and azimuth resolution. To create a directional beam. The Fourier transform 8 performs a Fourier transform on the signal resulting from the directivity synthesis from a broadband signal including all frequency components in the frequency band in which the signal is engaged to a narrowband frequency-specific signal within a predetermined time, Output as a Fourier component. The phase calculation 9 calculates the azimuth using the phase difference of the Fourier components between the beams, and the amplitude calculation 10 calculates the power spectrum from the Fourier components. The target determination 10 compares the frequency transition (Doppler information 13) of the power spectrum with the passage of time with a reference having a specific frequency 12 or the like as a database, or uses a neural network in which target characteristics have been learned in advance. And outputs it as an automatically detected target together with the azimuth.
【0004】従来この種の目標自動検出方式では基本的
に上記の構成をとっており、種々の方式が開発されてい
るのはパワースペクトルを求めた周波数分析後の目標判
定及びそれに付随する技術である(図中10,11,1
2)。例えば特開平2−22799号公報には時間経過
に対する周波数変化の特性形状の特徴を抽出し、予め記
憶している基準特徴と比較する方法が掲載されており、
又、特開平4−147078号公報にはパワースペクト
ルの周波数情報と振幅情報を予め教師信号によって学習
させたニューラルネットを通して目標を判定する方法が
掲載されている。Conventionally, this type of automatic target detection system basically has the above-described configuration, and various systems have been developed by a target determination after frequency analysis for obtaining a power spectrum and a technique associated therewith. Yes (10, 11, 1 in the figure)
2). For example, JP-A-2-22799 discloses a method of extracting a characteristic shape characteristic of a frequency change with time and comparing it with a reference characteristic stored in advance.
Japanese Patent Application Laid-Open No. 4-147078 discloses a method of determining a target through a neural network in which frequency information and amplitude information of a power spectrum are learned in advance by a teacher signal.
【0005】[0005]
【発明が解決しようとする課題】これら従来の目標自動
検出方式では目標の発生する音響信号の中から、目標の
有する固有の周波数成分、即ち、周波数的特徴が顕著に
現れるパワースペクトルを求め、その時間的に連続する
振幅及び周波数偏移をデータ処理しているが、目標が発
する音響信号はこの固有の周波数成分の他に、突発的に
現れるトランジェント音や周囲媒体の状態を変化させた
結果生じた音などを有する。従って、従来方式では、目
標の有する音響信号の特徴の一部分しか用いずに自動検
出しており、有用な他の音響特徴を用いていないため
に、自動検出がしにくくなっているとともに、誤った検
出をしてしまうといった問題が存在する。又、時間的に
継続する音響信号を処理するため、ハッチの開閉音や船
体の打撃音のようなトランジェント信号には対応できな
いという問題があった。In these conventional automatic target detection methods, a unique frequency component of the target, that is, a power spectrum in which the frequency characteristic appears remarkably, is obtained from the sound signal generated by the target. Although the data processing of the amplitude and frequency shift that are continuous in time is performed, the acoustic signal emitted by the target is generated as a result of changing the state of the surrounding sound or transient sound that appears suddenly in addition to this inherent frequency component. It has a sound. Therefore, in the conventional method, automatic detection is performed using only a part of the characteristic of the sound signal of the target, and it is difficult to perform automatic detection because other useful acoustic characteristics are not used. There is a problem such as detection. In addition, there is a problem in that since a temporally continuous acoustic signal is processed, it cannot respond to a transient signal such as a hatch opening / closing sound or a hull striking sound.
【0006】[0006]
【課題を解決するための手段】上述した問題点を解決す
るため、本発明による目標自動検出方式は、音響信号を
入力して、船舶のハッチの開閉音や船体の打撃音などの
短時間内で振幅や周波数が変化する短時間発生音を検出
し、この検出結果を特徴情報データとするトランジェン
ト音検出部と、音響信号を入力して、エンジン等が発生
する連続発生音を検出し、この検出結果を特徴情報デー
タとする連続音検出部と、音響信号を入力して対象目標
固有のエンジンのシリンダーの単位時間内でのピストン
運動の回数(シリンダーレート)や爆発の回数(ファイ
アリングレート)等の周期運動に基づいて発生する基本
周波数成分及びその高調波成分を検出してその時間変動
パターンを分類してこれを特徴情報データとして出力す
るスペクトルパターン検出部と、目標がプロペラのよう
に周囲媒体に接して周囲媒体を撹乱する場合、周囲雑音
や目標の放射雑音が媒体の変動に合わせて振幅変調され
るが、この変調を受けた雑音を検出してプロペラ等の回
転数を推定しこれを特徴情報データとする変調周波検出
部の複数の異なった特徴を検出する特徴検出部を有し、
異なった特徴検出部にて検出された各特徴情報データを
統合して出力するデータ統合部と、検出目標がどの程度
目標として確からしいかを示す目標確信度を求め、目標
を分類して出力する目標判定部を有する。In order to solve the above-mentioned problems, an automatic target detection method according to the present invention is characterized in that an acoustic signal is inputted and a sound such as an opening / closing sound of a hatch of a ship or a striking sound of a hull is taken. A transient sound detector that detects a short-time generated sound whose amplitude and frequency changes in the same manner, a transient sound detector that uses this detection result as feature information data, and an acoustic signal is input to detect a continuously generated sound generated by an engine or the like. A continuous sound detector that uses the detection result as feature information data, and the number of piston movements (cylinder rate) and the number of explosions (firing rate) within a unit time of the engine cylinder specific to the target by inputting an acoustic signal Spectral pattern that detects the fundamental frequency component and its harmonic components generated based on the periodic motions, etc., classifies the time variation pattern, and outputs this as feature information data. When the target is in contact with the surrounding medium like a propeller and disturbs the surrounding medium, the ambient noise and the radiated noise of the target are amplitude-modulated in accordance with the fluctuation of the medium. It has a feature detection unit that detects a plurality of different features of the modulation frequency detection unit that detects and estimates the rotation speed of the propeller and the like and uses this as feature information data,
A data integration unit that integrates and outputs each feature information data detected by different feature detection units, and a target certainty factor indicating how likely the detection target is as a target, classifies and outputs the targets It has a target determination unit.
【0007】[0007]
【実施例】次に本発明を具体的な実施例に基づいて説明
する。Next, the present invention will be described with reference to specific examples.
【0008】図1は本発明の一実施例を示すブロック図
である。FIG. 1 is a block diagram showing one embodiment of the present invention.
【0009】図1において音源より発せられた音響信号
は、トランスデューサー群M1に入力され、音圧レベル
から電圧レベルに変換され、後段の処理をやり易くする
為に前処理M2が施される。ここで前処理M2は増幅、
バンドパスフィルタ、ベースバンド変換、ローパスフィ
ルタをかけることをいう。この後、A/D変換M3によ
りアナログ量からディジタル量に変換され、各トランス
デューサー間の音波到達時間から計算される位相を合わ
せて指向性合成M4を行う。ここまでは従来の方式と同
等である。特徴検出部S1はその内部構成としてトラン
ジェント音検出処理部M5、連続音検出処理部M6、ス
ペクトルパターン検出処理部M7、変調周波検出処理部
M8を有し、指向性合成された信号が分配されそれぞれ
の検出処理部に入力される。In FIG. 1, an acoustic signal emitted from a sound source is input to a transducer group M1, converted from a sound pressure level to a voltage level, and subjected to a pre-processing M2 to facilitate subsequent processing. Here, pre-processing M2 is amplification,
Applying a band-pass filter, baseband conversion, and low-pass filter. Thereafter, the A / D conversion M3 converts the analog amount into a digital amount, and performs directivity synthesis M4 by adjusting the phase calculated from the sound wave arrival time between the transducers. Up to this point, it is equivalent to the conventional method. The feature detection unit S1 has a transient sound detection processing unit M5, a continuous sound detection processing unit M6, a spectrum pattern detection processing unit M7, and a modulation frequency detection processing unit M8 as its internal configuration. Is input to the detection processing unit.
【0010】トランジェント音検出処理部M5はハッチ
の開閉音や船体の打撃音等のトランジェント信号をデー
タベース内のリファレンス信号と相互相関処理を行い、
その結果が一定の閾値を超えたものを目標が発生したト
ランジェント音として検出する。相互相関処理は時間領
域だけでなく、周波数領域上で出現するスペクトルとリ
ファレンス信号のスペクトルとのパターンマッチングを
してもよい。The transient sound detection processing section M5 performs a cross-correlation process on a transient signal such as a hatch opening / closing sound and a hull hitting sound with a reference signal in a database.
Those whose results exceed a certain threshold are detected as transient sounds in which the target has occurred. The cross-correlation processing may perform pattern matching between the spectrum appearing in the frequency domain as well as the spectrum of the reference signal in addition to the time domain.
【0011】連続音検出処理部M6は広帯域周波数の音
響信号に対して周囲雑音レベルを求めて閾値処理を行
い、閾値を超えて時間的に連続している信号をエンジン
等の連続発生音として、自己発生雑音を除去した後に出
力する。[0011] The continuous sound detection processing unit M6 calculates the ambient noise level of the acoustic signal of the wide band frequency and performs threshold processing, and a signal that exceeds the threshold and is continuous in time is regarded as a continuously generated sound of an engine or the like. Output after removing self-generated noise.
【0012】スペクトルパターン検出処理部M7は音響
信号に対してフーリエ変換等の周波数分析処理を行い、
対象目標固有のエンジンのシリンダーレートやファイア
リングレート等の基本周波数成分及びその高調波成分を
検出し、検出した各周波数成分の時間経過に対する動き
を追跡し(以下ライントラッキングと称する)、その変
動パターンを分類して出力する。The spectrum pattern detection processing section M7 performs frequency analysis processing such as Fourier transform on the acoustic signal,
Detects fundamental frequency components such as the cylinder rate and firing rate of the engine specific to the target target and its harmonic components, tracks the movement of each detected frequency component over time (hereinafter referred to as line tracking), and its fluctuation pattern Is output.
【0013】変調周波検出処理部M8は目標がプロペラ
のように周期的に運動する機構を有しておりそれが周囲
媒体に接触して運動する場合に媒体が撹乱されて周囲雑
音や目標の放射雑音が媒体の変動に合わせて振幅変調さ
れるが、この変調された雑音を検波して包絡線成分を求
めて周波数分析処理を行い、その高調波間の周波数間隔
(以下ピッチと称する)よりプロペラの回転数や、エン
ジンシャフトの回転数等を推定して出力する。高調波間
のピッチを求めるのに各高調波間の周波数差を直接調べ
る代わりに、パワースペクトルに対数変換を施し、それ
をフーリエ変換する一般にケプストラム演算[スペクト
ル解析、日野幹雄、朝倉書店、1977]と称される手
法を用いても良い。The modulation frequency detection processing unit M8 has a mechanism in which the target moves periodically like a propeller. When the target moves in contact with the surrounding medium, the medium is disturbed and the surrounding noise and the radiation of the target are emitted. The noise is amplitude-modulated in accordance with the fluctuation of the medium. The modulated noise is detected, an envelope component is obtained, a frequency analysis process is performed, and the frequency interval between the harmonics (hereinafter referred to as pitch) of the propeller is calculated. The number of revolutions, the number of revolutions of the engine shaft, etc. are estimated and output. Instead of directly examining the frequency difference between each harmonic to determine the pitch between the harmonics, a logarithmic transformation is performed on the power spectrum, and the resulting spectrum is Fourier-transformed. The method used may be used.
【0014】この特徴検出部S1の各特徴検出処理部M
5〜M8より出力された各特徴検出結果はデータ統合部
S2のデータ統合処理部M9により、各検出処理部出力
結果の時刻並びに方位の一致性を比較して一定の範囲内
にあれば同一目標からの信号として各特徴検出結果を統
合し、範囲外にあれば別目標として出力される。Each feature detection processing unit M of the feature detection unit S1
Each of the feature detection results output from 5-M8 is compared by the data integration processing unit M9 of the data integration unit S2 with the coincidence of the time and orientation of the output results of each detection processing unit. The results of each feature detection are integrated as a signal from, and if they are out of the range, they are output as separate targets.
【0015】統合されたデータは目標判定部S3の目標
判定処理部M10により各特徴検出処理部の検出情報
(レベル、変動パターン、周波数、信号種別等)ごとの
重み値の組合せにより目標の確からしさを示す目標確信
度が求められ、閾値を超えるものを自動検出目標として
挙げるとともに、検出情報の周波数特性や変動パターン
等はコード化されて組み合わされ、データベース内のリ
ファレンスと比較されて目標の種類を分類して出力す
る。The integrated data is determined by the target determination processing unit M10 of the target determination unit S3 based on a combination of weight values for each detection information (level, variation pattern, frequency, signal type, etc.) of each feature detection processing unit. The target certainty factor indicating the target confidence is calculated, and those exceeding the threshold are listed as automatic detection targets, and the frequency characteristics and fluctuation patterns of the detection information are coded and combined, compared with the reference in the database, and the type of the target is determined. Classify and output.
【0016】以上のように本発明は内部に複数の特徴検
出処理部M5〜M8を持つ特徴検出部S1を有し、各特
徴検出処理部にて検出された各々の特徴情報データを統
合して出力するデータ処理部S2と、目標の確からしさ
を求めて目標の種類を分類して出力する目標判定部S3
から構成される。As described above, the present invention includes the feature detecting section S1 having a plurality of feature detecting sections M5 to M8 therein, and integrates each piece of feature information data detected by each feature detecting section. A data processing unit S2 for outputting, and a target determining unit S3 for classifying and outputting the type of the target in order to determine the likelihood of the target
Consists of
【0017】次に各処理部M5〜M10について以下に
詳細に示す。本発明は複数の特徴検出情報データをデー
タ統合して用いることに主眼を置いており、従って特徴
検出処理M5〜M8においては目的とする特徴が検出で
きれば任意の方法に置換することが可能である。Next, the processing units M5 to M10 will be described in detail below. The present invention focuses on integrating and using a plurality of feature detection information data. Therefore, in the feature detection processes M5 to M8, any method can be used as long as a target feature can be detected. .
【0018】図2はトランジェント音検出処理M5の一
例を説明する図であり、(A)はその処理フローを示
す。音響信号は検波処理M501され信号の包絡線成分
が求められる。次にデータベース内の複数の予め登録さ
れているリファレンス信号と相互相関処理M502を行
い、その後閾値処理M503を行い、求められた相互相
関係数が閾値を超えるものを検出目標として出力する。
(B)は検波処理M501出力後の信号例、(C)は相
互相関処理M502以後の処理データ例を示す。FIG. 2 is a diagram for explaining an example of the transient sound detection processing M5, and FIG. 2A shows the processing flow. The acoustic signal is subjected to detection processing M501, and an envelope component of the signal is obtained. Next, cross-correlation processing M502 is performed on a plurality of pre-registered reference signals in the database, then threshold processing M503 is performed, and a signal whose calculated cross-correlation coefficient exceeds a threshold is output as a detection target.
(B) shows an example of a signal after the detection processing M501 is output, and (C) shows an example of processing data after the cross-correlation processing M502.
【0019】図3は連続音検出処理部M6の一例の処理
フローを示す。入力された音響信号は検波処理M601
された後、指向性合成された各方向を向いているビーム
をそれぞれのビーム毎に時間積分して雑音のばらつきを
軽減し、その結果の内最小レベルを持つビームの出力を
基準レベルとしてK倍して閾値レベルを定める周囲雑音
計算処理M602を行う。検波処理された信号は周囲雑
音計算処理M602とは別に時間積分処理M603さ
れ、閾値計算処理M604で閾値を超えるものを求め
る。次の連続性判定処理M605を行い、過去N回分の
方位データを用いて求められた予測方位を中心にした方
位ゲート内に目標が存在するか調べ、目標が存在すれば
更にその目標がL秒以上連続して存在するかを判定し
て、L秒以上連続していれば目標として出力する。目標
として検出された出力結果のうちから明らかに自己放射
雑音が重畳されている方位のものを除去する自己雑音除
去処理M606を行った後に後段へ出力される。図4
(A)は閾値処理M604の出力例を、図4(B)は自
己雑音M606の出力結果例を示す。図4(A)には求
められた周囲雑音レベルから閾値が計算され、閾値を超
えるものが検出される様子が示されている。また図4
(B)には連続性判定処理及び自己雑音除去処理により
検出又は未検出又は除去されるデータの例が示されてい
る。FIG. 3 shows a processing flow of an example of the continuous sound detection processing section M6. The input acoustic signal is subjected to detection processing M601.
After that, the directionally synthesized beam directed in each direction is time-integrated for each beam to reduce noise variation, and the output of the beam having the minimum level among the results is multiplied by K as a reference level. Then, ambient noise calculation processing M602 for determining a threshold level is performed. The signal subjected to the detection processing is subjected to time integration processing M603 separately from the ambient noise calculation processing M602, and a signal exceeding a threshold is obtained in a threshold calculation processing M604. The next continuity determination processing M605 is performed to check whether or not the target exists in the azimuth gate centered on the predicted azimuth obtained using the azimuth data for the past N times. It is determined whether or not there is a continuous presence, and if it is continuous for L seconds or more, it is output as a target. After performing a self-noise removal process M606 for removing a direction in which self-radiation noise is clearly superimposed from the output results detected as targets, the output is output to the subsequent stage. FIG.
4A shows an output example of the threshold processing M604, and FIG. 4B shows an output result example of the self-noise M606. FIG. 4A shows a state where a threshold value is calculated from the obtained ambient noise level, and a value exceeding the threshold value is detected. FIG. 4
(B) shows an example of data detected, not detected, or removed by the continuity determination process and the self-noise removal process.
【0020】図5はスペクトルパターン検出処理部M7
の一例の処理フローを示す。入力された音響信号はスペ
クトル演算処理M701にてFFT演算された後、検波
されて入力信号のパワースペクトルが計算される。最大
値検出処理M702においてM701より出力されたパ
ワースペクトルを時間方向にNサンプルため込み、各周
波数セル毎にNサンプル内での最大値をもとめる(ピー
クホールド)。2値化処理M703においては各ビーム
毎に周波数平均レベル及び標準偏差を求め、平均+K*
標準偏差で閾値レベルを定め、閾値未満のスペクトルの
周波数セルには「0」を割付け、閾値以上の周波数セル
には「1」を割り付けて信号を「1」と「0」の値に2
値化する。2値化された信号スペクトルは周波数に広が
りをもっていることがほとんどであるので、細線化処理
M704によって、周波数ゲートを設けてそのゲート内
に存在する複数の周波数が一定セル間隔以上離れている
場合は一旦ゲート内の全てに周波数セルに「1」を割付
け、連続した周波数帯域に幅を広げてその後その中心セ
ルにのみ「1」を割付け、他のセルには「0」を割り付
けて細線化する。符号化処理M705において1タイミ
ング前のスペクトルと周波数を比較し、1タイミング前
の周波数セル番号と現在の周波数セル番号の差に従って
周波数セルの変化を符号化する。例えば周波数セル番号
が高い方へ5セル移動していれば符号「+」を、±2セ
ル以内の変化であれば変動が少ないので符号「I」等を
付与する。これらの符号がリスト化処理M706にて周
波数の近接性及び出現時間の継続性に従ってライントラ
ッキングされ符号からラインリストに変換され、ライン
リスト毎に分類される。例えばAグループ;「+/II
II・・・*」、Bグループ;「IIIIII・・・
*」などのリストに変換される。この後、照合処理M7
07によって分類されたグループの中にデータベース内
のラインの変動パターンと一致するかどうかを照合し、
一致するものがあれば検出目標として出力する。図6
(A)はスペクトル演算処理M701後の信号のスペク
トルの出力例を、図6(B)は細線化処理M704後の
2値化されて細線化された信号の出力例を、また図6
(C)はリスト化処理M706後のラインリスト化され
た符号の出力例を示す。FIG. 5 shows a spectrum pattern detection processing unit M7.
2 shows a processing flow of an example. The input acoustic signal is subjected to an FFT operation in a spectrum operation processing M701, and then detected to calculate a power spectrum of the input signal. In the maximum value detection processing M702, the power spectrum output from M701 is stored in N samples in the time direction, and the maximum value in N samples is obtained for each frequency cell (peak hold). In the binarization processing M703, a frequency average level and a standard deviation are obtained for each beam, and the average + K *
The threshold level is determined by the standard deviation, "0" is assigned to frequency cells having a spectrum less than the threshold, and "1" is assigned to frequency cells having a spectrum equal to or greater than the threshold, and the signal is assigned to "1" and "0".
Value. In most cases, the binarized signal spectrum has a spread in frequency. Therefore, in the case where a frequency gate is provided and a plurality of frequencies existing in the gate are separated by a predetermined cell interval or more by the thinning processing M704, Once the frequency cells are allotted "1" to all of the gates, the width is expanded to the continuous frequency band, then "1" is allocated only to the center cell, and "0" is allocated to the other cells to make them thinner. . In the encoding process M705, the spectrum and the frequency one timing before are compared, and the change of the frequency cell is encoded according to the difference between the frequency cell number one timing before and the current frequency cell number. For example, a sign “+” is assigned if the cell has moved to the higher frequency cell number by 5 cells, and a sign “I” or the like is assigned if the change is within ± 2 cells because the change is small. These codes are line-tracked in accordance with the proximity of the frequency and the continuity of the appearance time in the list processing M706, converted from the codes into a line list, and classified for each line list. For example, group A; "+ / II
II ... * ", Group B;" IIIIII ...
* ". Thereafter, the collation processing M7
07 to see if they match the variation pattern of the line in the database in the group classified by 07
If there is a match, it is output as a detection target. FIG.
6A shows an output example of the spectrum of the signal after the spectrum calculation processing M701, FIG. 6B shows an output example of the binarized and thinned signal after the thinning processing M704, and FIG.
(C) shows an output example of a code in the line list after the list processing M706.
【0021】図7は変調周波検出処理部M8の一例の処
理フローを示す。M801のローパスフィルタにおい
て、従事する周波数帯域以上の周波数成分を除去する。
ローパスフィルタの出力に対して検波処理M802を行
い変動の包絡線成分を求め、スペクトル演算処理M80
3ではFFT処理M803Aを行い検波処理M803B
してパワースペクトルを求めて、時間積分処理M803
Cにて各周波数セルの値を過去Nサンプルに渡って時間
平均をとることによりノイズの変動を抑制して、目標に
起因する変調周波数及びその高調波を含むスペクトルを
求める。この後、後段で必要とされる周波数帯域のみと
なるようにバンドパスフィルタM803Dで帯域制限を
かけて出力する。閾値処理M804では周波数帯域全体
の平均スペクトルレベルを基準値とする閾値で閾値未満
の値を有するスペクトルに対して正の小さな値を与え
る。0でなく正の小さな値を付与する理由は後段のLO
G演算時にエラーとならないためである。ケプストラム
演算処理M805では閾値処理M804の出力スペクト
ルにLOG変換処理M805Aを行い更にそれをFFT
処理M805Bして検波処理M805Cした結果、ケプ
ストラムを求める。この後各ケフレンシーセル(スペク
トルでは周波数に相当するセル)毎に時間軸積分M80
5Dを行いノイズ成分の変動を抑制する。このケプスト
ラムはパワースペクトルに存在する高調波の出現間隔
(ピッチ)を現しており、次元は時間である。この後、
閾値処理M806にてケフレンシー上で移動平均処理を
行いケプストラムのケフレンシー軸上の変動に対する該
当ケフレンシー付近の平均雑音レベルを求め、これを基
準に閾値を求め雑音ケプストラムを除去する。最後にデ
ータ照合処理M807により閾値を超えて検出されたケ
プストラムと予めデータベースに登録してある特定目標
のシリンダーレートやファイアリングレートを表すケフ
レンシーとを比較し、一致していれば目標として出力す
る。図8(A)にローパスフィルタM801後の変調さ
れた信号の出力例を、図8(B)にスペクトル演算処理
M803後の周波数間隔f1で出現する高調波のスペク
トルの出力例を、図8(C)にケプストラム演算処理M
805後のスペクトルの高調波のピッチを表す1/f1
の位置に現れるケプストラム信号の出力例を示す。FIG. 7 shows a processing flow of an example of the modulation frequency detection processing section M8. In the low-pass filter of M801, frequency components higher than the frequency band in which it is engaged are removed.
A detection process M802 is performed on the output of the low-pass filter to obtain a fluctuation envelope component, and a spectrum calculation process M80 is performed.
In No. 3, FFT processing M803A is performed and detection processing M803B is performed.
To obtain a power spectrum, and perform time integration processing M803.
At C, the value of each frequency cell is time-averaged over the past N samples to suppress noise fluctuations and obtain a spectrum including the modulation frequency due to the target and its harmonics. After that, the signal is band-limited by a band-pass filter M803D so that only the frequency band required in the subsequent stage is output. In the threshold processing M804, a small positive value is given to a spectrum having a value less than the threshold, which is a threshold using the average spectrum level of the entire frequency band as a reference value. The reason for giving a small positive value instead of 0 is
This is because no error occurs during the G operation. In the cepstrum calculation processing M805, the output spectrum of the threshold processing M804 is subjected to LOG conversion processing M805A, which is further subjected to FFT.
As a result of the processing M805B and the detection processing M805C, a cepstrum is obtained. Thereafter, the time axis integral M80 is set for each quefrency cell (a cell corresponding to a frequency in the spectrum).
Perform 5D to suppress the fluctuation of the noise component. This cepstrum represents the appearance interval (pitch) of harmonics existing in the power spectrum, and the dimension is time. After this,
In the threshold processing M806, the moving average processing is performed on the quefrency to obtain an average noise level near the corresponding quefrency with respect to the fluctuation of the cepstrum on the quefrency axis, and based on this, a threshold is obtained to remove the noise cepstrum. Lastly, the cepstrum detected by exceeding the threshold value by the data collation processing M807 is compared with a specific target cylinder rate or a quefrency representing a firing rate registered in advance in the database, and if they match, it is output as a target. FIG. 8A shows an output example of a modulated signal after the low-pass filter M801, and FIG. 8B shows an output example of a harmonic spectrum appearing at the frequency interval f1 after the spectrum calculation processing M803. C) Cepstrum operation processing M
1 / f1 representing the pitch of harmonics of the spectrum after 805
3 shows an example of output of a cepstrum signal appearing at the position of.
【0022】図9(A)はデータ統合処理部M9の一例
の処理フローを示す。時刻ゲート処理M901によって
各特徴検出系からの検出目標の時刻の一致性を調べる。
目標が存在する複数の特徴検出系間で検出時刻を比較し
て一定の時刻ゲート内に入っていれば時刻の一致がとれ
たものとして同一目標からの信号とみなし、各特徴検出
処理の出力データを統合する。次に方位ゲート処理M9
02によって時刻ゲート処理後の統合されたデータの中
で、各特徴検出系間の検出方位の一致性を見る。一つの
検出系と他の検出系を比較して一定ゲート内に入ってい
れば方位の一致がとれたものとしてそのまま出力する
が、方位ゲートからはずれている場合は別目標として統
合からはずして別々に出力する。図9(B)に統合され
る場合と統合されない場合の例を示す。FIG. 9A shows a processing flow of an example of the data integration processing section M9. The coincidence of the time of the detection target from each feature detection system is checked by the time gate process M901.
The detection times are compared between a plurality of feature detection systems where the target exists. If the detection time is within a certain time gate, the signals are regarded as signals from the same target as if the time matches, and the output data of each feature detection process To integrate. Next, direction gate processing M9
In 02, the coincidence of the detection directions between the feature detection systems is checked in the integrated data after the time gate processing. One detection system is compared with another detection system, and if it is within a certain gate, it is output as it is as if the azimuth is matched, but if it is out of the azimuth gate, it is separated from the integration as a separate target and separated Output to FIG. 9B shows an example of a case where integration is performed and a case where integration is not performed.
【0023】図10に目標判定処理部M10の処理フロ
ーを示す。統合されたデータ情報は目標確信度算出処理
M1001で特徴検出部毎に確信度を出力し、これらを
用いて目標確信度を計算する。連続音確信度算出M10
04では連続音検出処理部M6より出力された検出情報
からS/N値を取出し、予め用意してあるS/N参照テ
ーブルに照らし合わせて該当する確信度を出力する。ト
ランジェント音確信度算出M1005ではトランジェン
ト音検出処理部M5より出力された検出情報からトラン
ジェント音種別を取出し、予め用意してある種別参照テ
ーブルに照らし合わせて該当する確信度を出力する。ス
ペクトルパターン確信度算出M1006ではスペクトル
パターン検出処理部M7より出力された検出情報から変
動パターンコードを取出し、予め用意してあるパターン
コード参照テーブルに照らし合わせて該当する確信度を
出力する。変調周波確信度算出M1007では変調周波
検出処理部M8より出力された検出情報から変調周波数
を取出し、予め用意してある変調周波参照テーブルと照
らし合わせて該当する確信度を出力する。目標確信度計
算M1008ではM1004からM1007までの4つ
の特徴確信度算出から出力されたそれぞれの確信度を組
み合わせて目標確信度を算出する。ここでは医療用エキ
スパートシステムに用いられるMYCIN−ORの手法
[WINSTON,1979]を用いて計算している。
これは二つの確信度(1以下の正の値)を加算した後に
乗算値を減算する方法であり、3つ以上要素が存在する
場合は計算された結果に対してこの手順を繰り返すもの
で、その出力は1を超えない。目標判定処理M1002
によって一定値以上の目標確信度のものを目標として認
識する。更に目標分類処理M1003によって統合され
たデータ情報の各検出情報の組合せパターンと予めリフ
ァレンスとして持っている組合せパターン参照テーブル
の組合せパターンを比較し、特定の目標の種類と一致す
る場合は、特定目標と分類して出力する。FIG. 10 shows a processing flow of the target determination processing section M10. The integrated data information outputs a certainty factor for each feature detection unit in a target certainty factor calculation process M1001, and the target certainty factor is calculated using these. Continuous sound certainty calculation M10
In step 04, the S / N value is extracted from the detection information output from the continuous sound detection processing unit M6, and the corresponding certainty factor is output by referring to a previously prepared S / N lookup table. In the transient sound certainty factor calculation M1005, the transient sound type is extracted from the detection information output from the transient sound detection processing unit M5, and the corresponding certainty factor is output by referring to a type reference table prepared in advance. In the spectral pattern certainty factor calculation M1006, the variation pattern code is extracted from the detection information output from the spectrum pattern detection processing unit M7, and the corresponding certainty factor is output by referring to a previously prepared pattern code reference table. In the modulation frequency certainty calculation M1007, the modulation frequency is extracted from the detection information output from the modulation frequency detection processing unit M8, and the corresponding certainty is output by comparing it with a modulation frequency reference table prepared in advance. In the target certainty factor calculation M1008, the target certainty factors are calculated by combining the respective certainty factors output from the four feature certainty factor calculations from M1004 to M1007. Here, the calculation is performed using the MYCIN-OR method [WINSTON, 1979] used for the medical expert system.
This is a method of adding two confidence factors (positive values less than 1) and then subtracting the multiplied value. If there are three or more elements, this procedure is repeated for the calculated result. Its output does not exceed 1. Target determination processing M1002
Thus, a target certainty degree or more with a target certainty factor is recognized as a target. Furthermore, the combination pattern of each piece of detection information of the data information integrated by the target classification process M1003 is compared with the combination pattern of the combination pattern reference table previously provided as a reference. Classify and output.
【0024】[0024]
【発明の効果】以上説明したように、本発明はトランジ
ェント音検出部、連続音検出部、スペクトルパターン検
出部、変調周波検出部の複数の異なる特徴検出部を有
し、それぞれの検出出力をデータ統合した後、目標の確
信度を算出し、検出情報の組合せによって目標を分類し
て出力している。従って一つの特徴だけでなく、複数の
特徴から目標を検出して統合判定しているので目標の検
出が容易になるばかりでなく、誤った検出を軽減するこ
とが出来る。又、時間的に連続した信号のみでなく、突
発的に発生するトランジェント信号に対しても検出が可
能となる。As described above, the present invention has a plurality of different characteristic detecting units, namely, a transient sound detecting unit, a continuous sound detecting unit, a spectrum pattern detecting unit, and a modulation frequency detecting unit. After integration, the degree of certainty of the target is calculated, and the target is classified and output according to the combination of the detection information. Therefore, since the target is detected not only from one feature but also from a plurality of features and the integrated determination is made, not only the target can be easily detected, but also erroneous detection can be reduced. Further, it is possible to detect not only a temporally continuous signal but also a suddenly generated transient signal.
【図1】本発明の目標自動検出方式の一実施例を示す
図。FIG. 1 is a diagram showing an embodiment of a target automatic detection method according to the present invention.
【図2】本発明の実施例のトランジェント音検出動作を
示す図で、(A)は処理過程を示し、(B)はその中の
検出処理M501の出力信号例を示し、(C)は相互相
関処理M502後の処理結果を示す図。2A and 2B are diagrams showing a transient sound detection operation according to an embodiment of the present invention, wherein FIG. 2A shows a processing process, FIG. 2B shows an example of an output signal of a detection process M501, and FIG. FIG. 14 is a diagram illustrating a processing result after the correlation processing M502.
【図3】本発明の実施例の連続音検出処理の処理過程を
示す図。FIG. 3 is a diagram showing a process of a continuous sound detection process according to the embodiment of the present invention.
【図4】図3の処理過程の動作を示す図で、(A)は閾
値処理M604の出力結果の例を示す図、(B)は連続
性判定処理M605以降の処理結果を示す図。4A and 4B are diagrams showing an operation in the process of FIG. 3, wherein FIG. 4A shows an example of an output result of a threshold process M604, and FIG. 4B shows a process result after a continuity determination process M605.
【図5】本発明の実施例のスペクトルパターン検出処理
の処理過程を示す図。FIG. 5 is a diagram showing a process of a spectrum pattern detection process according to the embodiment of the present invention.
【図6】図5の処理過程の動作を示す図で、(A)はス
ペクトル演算処理M701の処理出力例を示し、(B)
は細線化処理M704の処理出力例を示し、(C)はリ
スト処理M706の処理出力例を示す図。6A and 6B are diagrams showing an operation in the process of FIG. 5; FIG. 6A shows an example of a processing output of a spectrum calculation process M701;
FIG. 7C is a diagram illustrating a processing output example of a thinning process M704, and FIG. 7C is a diagram illustrating a processing output example of a list process M706.
【図7】本発明の実施例の変調周波検出処理の処理過程
を示す図。FIG. 7 is a diagram showing a process of a modulation frequency detection process according to the embodiment of the present invention.
【図8】図7の処理過程を示す図で、(A)はローパス
フィルタM801の出力信号例を示し、(B)はスペク
トル演算処理M803の出力例を示し、(C)はケプス
トラム演算処理M805の出力例を示す。FIGS. 8A and 8B are diagrams showing the process of FIG. 7, wherein FIG. 8A shows an example of an output signal of a low-pass filter M801, FIG. 8B shows an example of an output of a spectrum operation process M803, and FIG. 8C shows a cepstrum operation process M805; Here is an output example.
【図9】本発明の実施例のデータ統合処理を示す図で、
(A)は統合処理過程を示し、(B)は処理の一例を示
す図。FIG. 9 is a diagram showing a data integration process according to the embodiment of the present invention;
FIG. 7A is a diagram illustrating an integration process, and FIG.
【図10】本発明の実施例の目標判定処理の処理過程を
示す図。FIG. 10 is a diagram showing a process of a target determination process according to the embodiment of the present invention.
【図11】従来例を示す図。FIG. 11 shows a conventional example.
1 トランスデューサー群 2 増幅部 3 バンドパスフィルター 4 ベースバンド変換 5 ローパスフィルター 6 A/D変換 7 指向性合成 8 フーリエ変換 9 位相演算 10 振幅演算 11 目標判定 12 特定周波数 13 ドップラー情報 S1 特徴検出部 S2 データ統合部 S3 目標判定部 M1 トランスデューサー群 M2 前処理部 M3 A/D変換部 M4 指向性合成部 M5 トランジェント音検出処理部 M6 連続音検出処理部 M7 スペクトルパターン検出処理部 M8 変調周波検出処理部 M9 データ統合処理部 M10 目標判定処理部 M501 検波処理 M502 相互相関処理 M503 閾値処理 M601 検波処理 M602 周囲雑音レベル演算処理 M603 閾値処理 M604 連続性判定処理 M605 自己雑音除去処理 M701 スペクトル演算処理 M702 最大値検出処理 M703 2値化処理 M704 細線化処理 M705 符号化処理 M706 リスト化処理 M707 照合処理 M801 ローパスフィルター M802 検波処理 M803 スペクトル演算処理 M804 閾値処理 M805 ケプストラム演算処理 M806 閾値処理 M807 データ照合処理 M803A FFT演算 M803B 検波処理 M803C 時間軸積分 M803D バンドパスフィルタ M804A 周波数軸積分 M805A LOG演算処理 M805B FFT処理 M805C 検波処理 M805D 時間軸積分 M901 時刻ゲート処理 M902 方位ゲート処理 M1001 目標確信度算出処理 M1002 目標判定処理 M1003 目標分類処理 M1004 連続音目標確信度算出 M1005 トランジェント音確信度算出 M1006 スペクトルパターン確信度算出 M1007 変調周波確信度算出 M1008 目標確信度計算 DESCRIPTION OF SYMBOLS 1 Transducer group 2 Amplification part 3 Band pass filter 4 Base band conversion 5 Low pass filter 6 A / D conversion 7 Directivity synthesis 8 Fourier transformation 9 Phase calculation 10 Amplitude calculation 11 Target judgment 12 Specific frequency 13 Doppler information S1 Feature detection part S2 Data integration section S3 Target determination section M1 Transducer group M2 Preprocessing section M3 A / D conversion section M4 Directivity synthesis section M5 Transient sound detection processing section M6 Continuous sound detection processing section M7 Spectrum pattern detection processing section M8 Modulation frequency detection processing section M9 Data integration processing unit M10 Target determination processing unit M501 Detection processing M502 Cross-correlation processing M503 Threshold processing M601 Detection processing M602 Ambient noise level calculation processing M603 Threshold processing M604 Continuity determination processing M605 Self-noise removal processing M701 Vector calculation processing M702 Maximum value detection processing M703 Binarization processing M704 Thinning processing M705 Encoding processing M706 List processing M707 Collation processing M801 Low-pass filter M802 Detection processing M803 Spectrum calculation processing M804 Threshold processing M805 Cepstrum calculation processing M806 Threshold processing Matching processing M803A FFT calculation M803B Detection processing M803C Time axis integration M803D Bandpass filter M804A Frequency axis integration M805A LOG calculation processing M805B FFT processing M805C Detection processing M805D Time axis integration M901 Time target processing M902 M1 azimuth M1 100 degree gate processing Judgment process M1003 Target classification process M1004 Continuous sound target certainty factor calculation M1005 Tiger Stringent sound confidence factor computing M1006 spectral patterns confidence factor computing M1007 modulation frequency confidence factor computing M1008 target confidence calculation
───────────────────────────────────────────────────── フロントページの続き (72)発明者 加藤 隆広 神奈川県横須賀市長瀬3−12−2−6402 (56)参考文献 特開 平8−271620(JP,A) 特開 平8−220210(JP,A) 特開 平8−211151(JP,A) 特開 平7−44517(JP,A) 特開 平6−75038(JP,A) 特開 平8−15402(JP,A) 特開 平4−359799(JP,A) 特開 平4−208887(JP,A) (58)調査した分野(Int.Cl.6,DB名) G01S 3/80 - 3/86 G01S 5/18 - 5/30 G01S 7/52 - 7/64 G01S 15/00 - 15/96 G01H 3/00 G01V 1/00──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Takahiro Kato 3-12-2-6402 Nagase, Yokosuka City, Kanagawa Prefecture (56) References JP-A 8-271620 (JP, A) JP-A 8-220210 (JP) JP-A-8-211151 (JP, A) JP-A-7-44517 (JP, A) JP-A-6-75038 (JP, A) JP-A-8-15402 (JP, A) 4-359799 (JP, A) JP-A-4-208887 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G01S 3/80-3/86 G01S 5/18-5 / 30 G01S 7/52-7/64 G01S 15/00-15/96 G01H 3/00 G01V 1/00
Claims (4)
その到来方位及び目標の種類を認識する目標自動検出方
式において、 前記音響信号を入力して、短時間内で振幅や周波数が変
化する短時間発生音(以下、トランジェント音と称す
る)を検出し、この検出結果を特徴情報データとするト
ランジェント音検出部と、 前記音響信号を入力して、連続発生音を検出し、この検
出結果を基に目標の詳細方位を求め、特徴情報データと
する連続音検出部と、 前記音響信号を入力して周期運動に基づいて発生する音
の基本周波数成分及びその高調波成分を検出してその時
間変動パターンを分類してこれを特徴情報データとして
出力するスペクトルパターン検出部と、 前記音響信号を入力して、周囲雑音や目標の放射雑音が
媒体の変動に合わせて振幅変調された、雑音を検出して
回転数を推定しこれを特徴情報データとする変調周波検
出部とを有することを特徴とする目標自動検出方式。1. An audio signal emitted from a detection target is detected,
In the automatic target detection method for recognizing the arrival direction and the type of the target, the sound signal is input, and a short-time generated sound (hereinafter, referred to as a transient sound) whose amplitude or frequency changes within a short time is detected. A transient sound detection unit that uses the detection result as feature information data, and inputs the acoustic signal to detect a continuously generated sound, obtains a target detailed azimuth based on the detection result, and generates a continuous sound as feature information data. A detection unit, a spectrum pattern for inputting the acoustic signal, detecting a fundamental frequency component and a harmonic component of the sound generated based on the periodic motion, classifying the time-varying pattern, and outputting this as characteristic information data. A detection unit, which receives the acoustic signal, detects noise in which ambient noise or target radiated noise is amplitude-modulated in accordance with the fluctuation of the medium, and detects the noise to estimate the rotational speed. A target automatic detection method, comprising: a modulation frequency detection unit for setting information data.
報データを総合して出力するデータ総合部と、検出目標
がどの程度目標として確からしいかを示す目標確信度を
求めて目標を分類して出力する目標判定部とを有する請
求項1の目標自動検出方式。2. A data synthesizing section for synthesizing and outputting each feature information data detected by the plurality of detecting sections, and classifying the target by obtaining a target certainty factor indicating how likely the detection target is as the target. 2. The automatic target detection method according to claim 1, further comprising: a target determination unit that outputs the result.
の特徴検出部にて検出された前記特徴情報データを検出
時刻毎に統合処理する時刻ゲート処理部と検出時刻によ
り統合された結果を更に検出方位毎に統合処理する方位
ゲート処理部により統合し、統合された各特徴情報デー
タを重み付けして組合せ、検出された目標が期待する目
標としてどの程度確からしいかを示す目標確信度を求
め、かつ、特徴情報の組合せにより目標を分類して出力
することを特徴とする請求項2記載の目標自動検出方
式。3. The data integration unit and the target determination unit further include a time gate processing unit that integrates the feature information data detected by the plurality of feature detection units for each detection time, and a result integrated by the detection time. Integrate by the azimuth gate processing unit that performs integrated processing for each detected azimuth, weighted and combined the integrated feature information data, and found the target certainty that indicates how likely the detected target is as the expected target, 3. The automatic target detection method according to claim 2, wherein the target is classified and output according to a combination of the characteristic information.
音や船体の打撃音であり、前記周期運動に基づいて発生
する信号がエンジンのピストン運動や爆発による音であ
り、前記振幅変調雑音がプロペラの回転によって得られ
る音であることを特徴とする請求項1の目標自動検出方
式。4. The sound generated in a short period of time is a sound of opening and closing a hatch of a ship and a sound of striking a hull, and a signal generated based on the periodic motion is a sound due to a piston motion or an explosion of an engine. 2. The target automatic detection method according to claim 1, wherein the sound is a sound obtained by rotating the propeller.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8338479A JP2845850B2 (en) | 1996-12-18 | 1996-12-18 | Automatic target detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8338479A JP2845850B2 (en) | 1996-12-18 | 1996-12-18 | Automatic target detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10177066A JPH10177066A (en) | 1998-06-30 |
JP2845850B2 true JP2845850B2 (en) | 1999-01-13 |
Family
ID=18318549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8338479A Expired - Lifetime JP2845850B2 (en) | 1996-12-18 | 1996-12-18 | Automatic target detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2845850B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007248184A (en) * | 2006-03-15 | 2007-09-27 | Omron Corp | Impact sound detection method and detector |
CN102213759B (en) * | 2011-04-08 | 2013-04-24 | 东南大学 | Characteristic matching method of underground water target based on power spectrum |
JP6192946B2 (en) * | 2013-02-12 | 2017-09-06 | 古野電気株式会社 | Underwater detection method and underwater detection device |
JP6056527B2 (en) * | 2013-02-14 | 2017-01-11 | 沖電気工業株式会社 | Intruder detection device |
JP2015169596A (en) * | 2014-03-10 | 2015-09-28 | 日本電気株式会社 | Detection system, monitoring device, and control method |
CA2949024C (en) | 2014-05-19 | 2018-07-17 | Nec Corporation | Sonar device, signal processing method, and recording medium |
JP6964872B2 (en) * | 2017-10-13 | 2021-11-10 | 国立大学法人東京海洋大学 | Ship engine speed estimation device, ship engine speed estimation method and ship engine speed estimation program |
JP7000963B2 (en) * | 2018-03-30 | 2022-01-19 | 日本電気株式会社 | Sonar equipment, acoustic signal discrimination method, and program |
CN109489794B (en) * | 2018-10-19 | 2020-10-23 | 中国人民解放军海军工程大学 | Method for evaluating a small number of measuring points of underwater radiation noise of ship in real time |
-
1996
- 1996-12-18 JP JP8338479A patent/JP2845850B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH10177066A (en) | 1998-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6573861B1 (en) | Target classification method | |
Eryildirim et al. | Pulse Doppler radar target recognition using a two-stage SVM procedure | |
Oleynikov et al. | Investigation of detection and recognition efficiency of small unmanned aerial vehicles on their acoustic radiation | |
De Seixas et al. | Preprocessing passive sonar signals for neural classification | |
Meucci et al. | A real-time siren detector to improve safety of guide in traffic environment | |
JP2845850B2 (en) | Automatic target detection method | |
Gao et al. | Generalized spoofing detection inspired from audio generation artifacts | |
CN111613240B (en) | Camouflage voice detection method based on attention mechanism and Bi-LSTM | |
CN111398909B (en) | Clutter environment unmanned aerial vehicle detection method based on cepstrum analysis | |
CN113640768B (en) | Low-resolution radar target identification method based on wavelet transformation | |
Bulatović et al. | Mel-spectrogram features for acoustic vehicle detection and speed estimation | |
Wellman et al. | Feature extraction and fusion of acoustic and seismic sensors for target identification | |
Andric et al. | Ground surveillance radar target classification based on fuzzy logic approach | |
Kalra et al. | Target detection using smooth pseudo Wigner-Ville distribution | |
JP2002323559A (en) | Signal processor for radar | |
CN115188384A (en) | Voiceprint recognition countermeasure sample defense method based on cosine similarity and voice denoising | |
Nguyen et al. | A parallel neural network-based scheme for radar emitter recognition | |
Soares-Filho et al. | Enlarging neural class detection capacity in passive sonar systems | |
Bulatović et al. | An approach to improving sound-based vehicle speed estimation | |
Balakin et al. | Real-time drone detection and recognition by acoustic fingerprint | |
Evans | Automated vehicle detection and classification using acoustic and seismic signals | |
Zhao et al. | An acoustic-based feature extraction method for the classification of moving vehicles in the wild | |
Akhtar et al. | Detection of helicopters using neural nets | |
Javed et al. | Automatic target classifier for a Ground Surveillance Radar using linear discriminant analysis and Logistic regression | |
Flanagan et al. | Robust distributed detection using low power acoustic sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19981006 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081030 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091030 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091030 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101030 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111030 Year of fee payment: 13 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121030 Year of fee payment: 14 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131030 Year of fee payment: 15 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |