JP5310027B2 - Lane recognition device and lane recognition method - Google Patents
Lane recognition device and lane recognition method Download PDFInfo
- Publication number
- JP5310027B2 JP5310027B2 JP2009014550A JP2009014550A JP5310027B2 JP 5310027 B2 JP5310027 B2 JP 5310027B2 JP 2009014550 A JP2009014550 A JP 2009014550A JP 2009014550 A JP2009014550 A JP 2009014550A JP 5310027 B2 JP5310027 B2 JP 5310027B2
- Authority
- JP
- Japan
- Prior art keywords
- edge point
- road model
- road
- angle
- lane recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、車線認識装置、及び車線認識方法に関する。 The present invention relates to a lane recognition device and a lane recognition method.
車線(レーンマーク)を含む画像における輝度変化部分をエッジ点として抽出し、抽出したエッジ点の方向角を算出して、この方向角の出願頻度が所定値以上である輝度変化部分を車線と推定する車線認識方法があった(特許文献1参照)。 The brightness change part in the image including the lane (lane mark) is extracted as an edge point, the direction angle of the extracted edge point is calculated, and the brightness change part whose filing frequency of the direction angle is a predetermined value or more is estimated as the lane. There was a lane recognition method to perform (see Patent Document 1).
ところで、路面には、二重に引かれた白線、タイヤのスリップ痕、水膜などが存在することがある。すなわち、画像データから抽出したエッジ点には、通行区分線(白線)以外のエッジ点が含まれる可能性があるので、誤って検出したエッジ点のみに基づいて車線を認識すると、車線認識の精度が低下することになる。
本発明の課題は、車線認識の精度を向上させることである。
By the way, double white lines, tire slip marks, water films, and the like may exist on the road surface. That is, the edge points extracted from the image data may include edge points other than the traffic line (white line). Therefore, if the lane is recognized based only on the edge points detected in error, the lane recognition accuracy is improved. Will drop.
An object of the present invention is to improve the accuracy of lane recognition.
本発明に係る車線認識装置は、走行路を撮像した画像内で、濃度変化が閾値以上となるエッジ点を検出すると共に、走行路の道路モデルを生成し、検出したエッジ点を生成した道路モデルと比較することで有効エッジ点を選別し、選別した有効エッジ点に基づいて前記道路モデルを更新する。有効エッジ点の選別は、エッジ点と道路モデルとの、座標偏差及び角度偏差のうち少なくとも角度偏差に基づいて行う。角度偏差に基づいて有効エッジ点を選別する際には、エッジ点を通り且つ道路モデルに直交する直線を引き、この直線と道路モデルとの交点における接線角度、及びエッジ点におけるベクトル角度の角度偏差が角度用の閾値より小さいときに、そのエッジ点を有効エッジ点として選別する。 The lane recognition device according to the present invention detects an edge point whose density change is equal to or greater than a threshold in an image obtained by imaging a traveling road, generates a road model of the traveling road, and generates the detected edge point. The effective edge point is selected by comparing with, and the road model is updated based on the selected effective edge point. The selection of the effective edge point is performed based on at least the angular deviation among the coordinate deviation and the angular deviation between the edge point and the road model. When selecting an effective edge point based on the angle deviation, a straight line passing through the edge point and orthogonal to the road model is drawn, and the tangent angle at the intersection of this line and the road model, and the angle deviation of the vector angle at the edge point Is smaller than the angle threshold, the edge point is selected as an effective edge point.
本発明に係る車線認識装置によれば、検出したエッジ点と道路モデルとの比較、つまりエッジ点と道路モデルとの、座標偏差及び角度偏差の少なくとも一方に基づいて有効エッジ点を選別し、選別した有効エッジ点に基づいて道路モデルを更新することで、車線認識の精度を向上させることができる。 According to the lane recognition device of the present invention, the effective edge point is selected based on the comparison between the detected edge point and the road model, that is, based on at least one of the coordinate deviation and the angle deviation between the edge point and the road model. By updating the road model based on the effective edge points, the accuracy of lane recognition can be improved.
以下、本発明の実施形態を図面に基づいて説明する。
《第1実施形態》
《構成》
図1は、車線認識装置の概略構成である。
車線認識装置102は、車両に搭載したカメラ100により取得した車両前方の道路画像を格納する画像メモリ103と、舵角検出手段104および車速検出手段とに基づいて道路形状を表す道路モデル108のパラメータを更新する例えばマイクロプロセッサを使用したプロセッサ106と、を備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<< First Embodiment >>
"Constitution"
FIG. 1 is a schematic configuration of a lane recognition device.
The
プロセッサ106は、画像メモリ103に格納された道路画像を処理して白線の濃淡エッジ点の座標と角度を検出するエッジ点座標・角度検出部109と、検出されたエッジ点の座標と角度を、車両進行方向を一軸とする道路上の座標系(道路座標系)に変換する座標変換部110と、座標変換された濃淡エッジ点の座標と角度を道路モデル108と比較することで有効な走行車線の車両区分線のエッジ点のみを選別するエッジフィルタリング部111と、選別された有効エッジ点に基づいて道路モデル108を更新する道路モデル更新部112と、を備える。さらに、舵角センサ104と車速センサ105から車線認識開始時に初期道路モデルを生成する道路モデル生成部107を備える。プロセッサ106は、上記の各部をプログラムにより実現している。
The
図2は、カメラ位置を示す。
車両200には、車両前方の路面を撮影するカメラ100と、舵角センサ104と、車速センサ105と、それらに基づいて車線を認識する車線認識装置102と、が設置される。カメラ100は、車両中央のできるだけ高い位置に設置されるのが望ましく、水平線および広い範囲の通行区分線を撮影できるように水平よりも若干下向きに設置される。
FIG. 2 shows the camera position.
The
図3は、道路モデルである。
道路モデルは、車線形状を数式で表したものであり、そのパラメータとして少なくとも道路の曲率半径と、車線の幅と、車線中心線に対する車両のヨー角とを含み、例えば道路座標系においては円の方程式である。
車両200は、車線の中心線1201に対してYw軸周りにφだけ回転した方向を向いている。このとき、右側の通行区分線は、次式で表される。
FIG. 3 shows a road model.
The road model is a mathematical expression of the lane shape, and includes at least the radius of curvature of the road, the width of the lane, and the yaw angle of the vehicle with respect to the lane centerline as its parameters. It is an equation.
The
ここで、Rは道路の曲率半径、φは車線延伸方向に対する車両のヨー角、Wは車線幅である。なお、上記の各式では、路面勾配が水平であると仮定し、Yw=0としている。
図4は、画像処理プログラムのフローチャートである。
先ずステップS1では、舵角を読込む。
続くステップS2では、車速を読込む。
続くステップS3では、車両がこれから走行する軌道を舵角及び車速に応じて算出することで、初期の道路モデルを生成する。
続くステップS4では、カメラ100で撮像された画像を画像メモリ103に読込む。
続くステップS5では、Sobelオペレータにより、撮像した画像内で濃度変化が閾値以上となるエッジ点を検出する。
Here, R is the curvature radius of the road, φ is the vehicle yaw angle with respect to the lane extending direction, and W is the lane width. In each of the above equations, it is assumed that the road gradient is horizontal, and Yw = 0.
FIG. 4 is a flowchart of the image processing program.
First, in step S1, the rudder angle is read.
In subsequent step S2, the vehicle speed is read.
In the subsequent step S3, an initial road model is generated by calculating a trajectory from which the vehicle will travel in accordance with the steering angle and the vehicle speed.
In a succeeding step S4, an image captured by the
In subsequent step S5, the Sobel operator detects an edge point where the density change is equal to or greater than a threshold in the captured image.
図5は、エッジ点の検出に用いるSobelオペレータの係数を示す。
エッジ点の検出は、撮像した画像に対して、Sobelオペレータ400及び401によって水平および垂直方向の微分画像を得る。なお、Sobelオペレータでなくとも、水平および垂直方向の濃度変化を抽出できれば任意の処理に替えてもよい。
先ず注目する画素(x、y)における水平および垂直方向の微分値を夫々Gx、Gyとし、エッジ強度Gを下記の式に従って算出する。そして、エッジ強度Gが少なくとも0より大きい所定の閾値を越えているとき、その画素をエッジ点と判断する。
G=√(Gx2+Gy2)
FIG. 5 shows the coefficients of the Sobel operator used for edge point detection.
In the detection of edge points, differential images in the horizontal and vertical directions are obtained by Sobel
First, the horizontal and vertical differential values of the pixel of interest (x, y) are Gx and Gy, respectively, and the edge strength G is calculated according to the following equation. When the edge strength G exceeds a predetermined threshold value greater than at least 0, the pixel is determined to be an edge point.
G = √ (Gx 2 + Gy 2 )
図6は、エッジ点の角度を示す。
通行区分線500は、路面501よりも輝度値が大きい白色等で記されており、エッジ点502の角度θは画像の下向きの軸を基準に反時計回りとし、その値域は0rad以上2πrad未満とする。エッジ点の角度θは、Gx及びGyの大きさに応じて、下記の式で定義される。なお、Gx=0且つGy=0のときはエッジ強度Gが閾値未満となり、エッジ点とは判断されないため、エッジの角度θは算出されない。
Gx>0のとき
θ=π−tan-1(Gy/Gx)
Gx<0、且つGy≧0のとき
θ=tan-1(−Gy/Gx)
Gx<0、且つGy<0のとき
θ=tan-1(−Gy/Gx)+2π
Gx=0、且つGy>0のとき
θ=π/2
Gx=0、且つGy<0のとき
θ=3π/2
このようにして算出されたエッジ点の角度は、図6に示されるように通行区分線の左右のエッジでは互いに向きが反対となる。
FIG. 6 shows the angle of the edge point.
The traffic dividing
When Gx> 0 θ = π−tan −1 (Gy / Gx)
When Gx <0 and Gy ≧ 0, θ = tan −1 (−Gy / Gx)
When Gx <0 and Gy <0, θ = tan −1 (−Gy / Gx) + 2π
When Gx = 0 and Gy> 0, θ = π / 2
When Gx = 0 and Gy <0, θ = 3π / 2
The angles of the edge points calculated in this way are opposite to each other at the left and right edges of the traffic dividing line as shown in FIG.
続くステップS6では、エッジ点の座標と角度を、道路座標系に変換する。
図7は、スクリーン座標系、及び道路座標系である。
スクリーン座標系は、図7(a)に示すように、撮像面600の右向きをXs軸、下向きをYs軸、撮像面の左上隅を原点とする。また、カメラの水平・垂直解像度を夫々Sx、Sv、カメラのレンズ中心を撮像面の中心(Sx/2、Sy/2)とする。道路座標系は、図7(b)に示すように、車両200に取り付けられたカメラ100のレンズ中心を原点、車両進行方向をZw軸、車両左方向をXw軸、鉛直方向をYw軸とする。路面が水平であると仮定すると、道路座標系におけるエッジ点のYw座標成分は常に0となる。したがって、下記の式に従ってスクリーン座標系におけるエッジ点の座標を道路座標系に変換することができる。
In the subsequent step S6, the coordinates and angles of the edge points are converted into a road coordinate system.
FIG. 7 shows a screen coordinate system and a road coordinate system.
In the screen coordinate system, as shown in FIG. 7A, the right direction of the
ここで、α、β、γはカメラのピッチ角、ヨー角、ロール角であり、夫々、Xw軸、Yw軸、Zw軸周りの回転角である。tx、ty、tzは道路座標系におけるカメラのレンズ中心の座標である。fh、fvは透視変換のパラメータであり、カメラの特性によって決まる定数である。
続くステップS7では、道路座標系においてエッジ点の座標と角度を道路座標系において記述される道路モデルと比較することで、道路モデルから乖離したエッジ点を無効エッジ点として除外し、通行区分線のエッジ点のみを有効エッジ点として選別する。
Here, α, β, and γ are the pitch angle, yaw angle, and roll angle of the camera, and are rotation angles around the Xw axis, the Yw axis, and the Zw axis, respectively. tx, ty, and tz are coordinates of the lens center of the camera in the road coordinate system. fh and fv are parameters for perspective transformation, and are constants determined by the characteristics of the camera.
In subsequent step S7, by comparing the coordinates and angles of the edge points in the road coordinate system with the road model described in the road coordinate system, the edge points deviating from the road model are excluded as invalid edge points, and Only edge points are selected as effective edge points.
図8は、エッジフィルタリング処理の概略を示す。
ここでは、エッジフィルタリングする二つの方法について説明する。
一つ目は、エッジ点700を通り道路モデル701に直交する直線を引き、エッジ点700から道路モデル701との交点Pまでの距離dを求め、この距離dが座標用閾値以上である場合には、このエッジ点700を無効エッジ点として除外するという方法である。そして、距離dが座標用閾値Dthより小さい場合には、このエッジ点700を有効エッジ点として選別する。
FIG. 8 shows an outline of the edge filtering process.
Here, two methods for edge filtering will be described.
First, when a straight line that passes through the
二つ目は、前述した交点Pにおける道路モデルの接線ベクトル703と、エッジ点700のベクトル702とのなす角度θdを求め、この角度θdが角度用閾値θth以上である場合には、このエッジ点700を無効エッジ点として除外するという方法である。そして、角度θdが角度用閾値より小さい場合には、このエッジ点700を有効エッジ点として選別する。
Second, an angle θd formed between the
なお、ある幅を持つ通行区分線の左右のエッジのうち、車両が走行している車線側のエッジを抽出対象とするため、走行車線の左側の境界を表す道路モデルの接線ベクトル703は、Zw軸の負の向きにとり、走行車線の右側の境界を表す道路モデルの接線ベクトル704は、Zw軸の正の向きにとる。以上のエッジフィルタリング処理により、除外されずに残ったエッジ点が有効なエッジ点となる。
Note that the
続くステップS8では、有効エッジ点群を、前述した円の方程式を最小二乗法によってフィッティングさせ、その方程式を新たな道路モデルとして更新する。
続くステップS9では、終了判定を行い、処理を続行する場合には前記ステップS4に戻り、処理を終了する場合には所定のメインプログラムに復帰する。
なお、前記ステップS4〜S9の処理は、カメラ100の撮像周期に合わせて繰り返し実行される。
In the subsequent step S8, the effective edge point group is fitted to the aforementioned circle equation by the least square method, and the equation is updated as a new road model.
In the subsequent step S9, an end determination is made. When the process is continued, the process returns to step S4, and when the process is ended, the process returns to a predetermined main program.
Note that the processes in steps S4 to S9 are repeatedly executed in accordance with the imaging cycle of the
《作用》
カメラ100で車両前方の走行路を撮像し、撮像した画像内で、濃度変化が閾値以上となるエッジ点を検出し(ステップS5)、これを道路モデルと比較することで、車線(通行区分線)を認識すると共に、この道路モデルを更新する(ステップS8)。
ところで、路面には、二重に引かれた白線、タイヤのスリップ痕、水膜などが存在することがある。すなわち、画像データから抽出したエッジ点には、通行区分線以外のエッジ点が含まれる可能性があるで、誤って検出したエッジ点に基づいて道路モデルを更新してしまうと、車線認識の精度が低下することになる。
<Action>
The
By the way, double white lines, tire slip marks, water films, and the like may exist on the road surface. That is, the edge points extracted from the image data may include edge points other than the traffic lane marking lines, and if the road model is updated based on the edge points detected in error, the accuracy of lane recognition Will drop.
本実施形態では、検出したエッジ点を道路モデルと比較する際に、有効エッジ点だけを選別し(ステップS7)、選別した有効エッジ点に基づいて道路モデルを更新する。これにより、車線認識の精度を向上させることができる。
有効エッジ点の選別は、検出したエッジ点と道路モデルとの、座標偏差及び角度偏差の何れか一方に基づいて行う(図8)。
In this embodiment, when comparing the detected edge point with the road model, only the effective edge point is selected (step S7), and the road model is updated based on the selected effective edge point. Thereby, the precision of lane recognition can be improved.
The selection of the effective edge point is performed based on one of the coordinate deviation and the angle deviation between the detected edge point and the road model (FIG. 8).
先ず、エッジ点を通り道路モデルに直交する直線を引き、エッジ点から道路モデルとの交点Pまでの距離dを求め、この距離dが座標用閾値Dthより小さいものを、有効エッジ点として選別する。又は、交点Pにおける道路モデルの接線ベクトルと、エッジ点のベクトルとのなす角度θdを求め、この角度θdが角度用閾値θthより小さいものを、有効エッジ点として選別する。すなわち、道路モデルから乖離したエッジ点をノイズ(無効エッジ点)として除外することで、有効エッジ点のみを正確にフィルタリングすることができる。
一方、道路モデルの生成は、自車両の舵角及び車速に基づいて行う(ステップS3)。これにより、高精度な道路モデルを容易に生成することができる。
First, a straight line that passes through the edge point and is orthogonal to the road model is drawn to obtain a distance d from the edge point to the intersection point P with the road model, and a distance d smaller than the coordinate threshold Dth is selected as an effective edge point. . Alternatively, the angle θd formed by the tangent vector of the road model at the intersection P and the vector of the edge point is obtained, and the one having the angle θd smaller than the angle threshold θth is selected as an effective edge point. That is, by excluding edge points that deviate from the road model as noise (invalid edge points), only effective edge points can be accurately filtered.
On the other hand, the road model is generated based on the steering angle and vehicle speed of the host vehicle (step S3). Thereby, a highly accurate road model can be easily generated.
《応用例》
本実施形態では、エッジ点と道路モデルとの座標偏差及び角度偏差の何れか一方に基づいて有効エッジ点を選別しているが、これに限定されるものではなく、座標偏差及び角度偏差の双方に基づいてエッジフィルタリングを行ってもよい。
《Application example》
In this embodiment, the effective edge point is selected based on one of the coordinate deviation and the angle deviation between the edge point and the road model. However, the present invention is not limited to this, and both the coordinate deviation and the angle deviation are selected. Edge filtering may be performed based on the above.
《効果》
以上より、カメラ100が「撮像手段」に対応し、エッジ座標・角度検出部109、及びステップS5の処理が「検出手段」に対応し、道路モデル生成部107、及びステップS1〜S3の処理が「生成手段」に対応し、エッジフィルタリング処理部111、及びステップS7の処理が「選別手段」に対応し、道路モデル更新部112、及びステップS8の処理が「更新手段」に対応する。
"effect"
As described above, the
(1)走行路を撮像する撮像手段と、該撮像手段が撮像した画像内で、濃度変化が閾値以上となるエッジ点を検出する検出手段と、走行路の道路モデルを生成する生成手段と、前記検出手段が検出したエッジ点を前記生成手段が生成した道路モデルと比較することで有効エッジ点を選別する選別手段と、該選別手段が選別した有効エッジ点に基づいて前記道路モデルを更新する更新手段と、を備え、前記選別手段は、前記検出手段が検出したエッジ点と前記生成手段が生成した道路モデルとの、座標偏差及び角度偏差の少なくとも一方に基づいて前記有効エッジ点を選別する。
このように、検出したエッジ点と道路モデルとの比較によって有効エッジ点を選別し、選別した有効エッジ点に基づいて道路モデルを更新することで、車線認識の精度を向上させることができる。また、有効エッジ点のみを正確にフィルタリングすることができる。
(1) An imaging unit that images a traveling road, a detection unit that detects an edge point where a density change is equal to or greater than a threshold in an image captured by the imaging unit, a generation unit that generates a road model of the traveling road, A selection unit that selects an effective edge point by comparing an edge point detected by the detection unit with a road model generated by the generation unit, and updates the road model based on the effective edge point selected by the selection unit. Updating means, and the sorting means sorts the effective edge points based on at least one of a coordinate deviation and an angle deviation between the edge point detected by the detecting means and the road model generated by the generating means. .
As described above, the effective edge point is selected by comparing the detected edge point with the road model, and the road model is updated based on the selected effective edge point, thereby improving the accuracy of the lane recognition. Also, only effective edge points can be accurately filtered.
(2)前記選別手段は、前記エッジ点を通り且つ前記道路モデルに直交する直線を引き、当該直線と前記道路モデルとの交点から前記エッジ点までの距離が座標用の閾値より小さいときに、当該エッジ点を前記有効エッジ点として選別する。
これにより、道路モデルから乖離したエッジ点をノイズとして除外し、有効エッジ点のみを正確にフィルタリングすることができる。
(2) The selecting means draws a straight line passing through the edge point and orthogonal to the road model, and when the distance from the intersection of the straight line and the road model to the edge point is smaller than a coordinate threshold value, The edge point is selected as the effective edge point.
As a result, edge points that deviate from the road model can be excluded as noise, and only effective edge points can be accurately filtered.
(3)前記選別手段は、前記エッジ点を通り且つ前記道路モデルに直交する直線を引き、当該直線と前記道路モデルとの交点における接線角度、及び前記エッジ点におけるベクトル角度の角度偏差が角度用の閾値より小さいときに、当該エッジ点を前記有効エッジ点として選別する。
これにより、道路モデルから乖離したエッジ点をノイズとして除外し、有効エッジ点のみを正確にフィルタリングすることができる。
(3) The selecting means draws a straight line that passes through the edge point and is orthogonal to the road model, and the angle deviation of the tangent angle at the intersection of the straight line and the road model, and the vector angle at the edge point is used for the angle. When the value is smaller than the threshold value, the edge point is selected as the effective edge point.
As a result, edge points that deviate from the road model can be excluded as noise, and only effective edge points can be accurately filtered.
(4)前記生成手段は、自車両の舵角及び車速に基づいて前記道路モデルを生成する。
これにより、高精度な道路モデルを容易に生成することができる。
(5)走行路を撮像した画像内で、濃度変化が閾値以上となるエッジ点を検出すると共に、走行路の道路モデルを生成し、検出したエッジ点を生成した道路モデルと比較することで有効エッジ点を選別し、選別した有効エッジ点に基づいて前記道路モデルを更新する。
このように、検出したエッジ点と道路モデルとの比較によって有効エッジ点を選別し、選別した有効エッジ点に基づいて道路モデルを更新することで、車線認識の精度を向上させることができる。
(4) The generation unit generates the road model based on a steering angle and a vehicle speed of the host vehicle.
Thereby, a highly accurate road model can be easily generated.
(5) It is effective to detect an edge point whose density change is greater than or equal to a threshold value in an image obtained by capturing a road and to generate a road model of the road and compare it with the road model that generated the detected edge point. Edge points are selected, and the road model is updated based on the selected effective edge points.
As described above, the effective edge point is selected by comparing the detected edge point with the road model, and the road model is updated based on the selected effective edge point, thereby improving the accuracy of the lane recognition.
《第二実施形態》
《構成》
第二実施形態は、自車両の現在位置及び道路地図情報に基づいて、初期の道路モデルを生成すると共に、カメラ100の分解能に応じて前述した座標用閾値や角度用閾値を設定するものである。
図9は、車線認識装置の概略構成である。
車線認識装置102は、舵角センサ104及び車速センサ105を省略する代わりに、現在位置を取得するGPS114と、道路形状を納めた道路地図情報115とを備える。道路モデル生成部807は、GPS114から得られる現在位置の前方の道路形状を、道路地図情報115から取得し、走行路の道路形状から初期の道路モデルを生成する。
<< Second Embodiment >>
"Constitution"
In the second embodiment, an initial road model is generated based on the current position of the host vehicle and road map information, and the above-described coordinate threshold value and angle threshold value are set according to the resolution of the
FIG. 9 is a schematic configuration of the lane recognition device.
Instead of omitting the
図10は、画像処理プログラムのフローチャートである。
本実施形態では、前記ステップS1〜S3の代わりに新たなステップS21〜S23の処理を実行し、前記ステップS7の代わりに新たなステップS27の処理を実行することを除いては、前述した第一実施形態と同様の処理を実行する。
ステップS21では、GPS114より現時位置を取得する。
ステップS22では、現在位置の前方にある道路形状を道路地図情報115より取得する。
FIG. 10 is a flowchart of the image processing program.
In the present embodiment, the first step described above is performed except that the process of new steps S21 to S23 is executed instead of the steps S1 to S3, and the process of new step S27 is executed instead of the step S7. The same processing as in the embodiment is executed.
In step S21, the current position is acquired from the
In step S22, the road shape in front of the current position is acquired from the
ステップS23では、道路形状に対して、前述した円の方程式を最小二乗法によってフィッティングさせ、その方程式を道路モデルとして生成する。
ステップS27では、カメラの分解能に応じて座標用閾値や角度用閾値を設定し、エッジ点のフィルタリングを行う。
遠方のエッジ点ほどカメラの分解能が不足し、座標値に誤差が生じる。この誤差は、車両から見たエッジ点の距離、つまり道路座標系のZw座標成分に比例する。したがって、画一的な閾値によってエッジ点のフィルタリングを行うと、フィルタリングの精度が低下してしまう。
In step S23, the above-described circle equation is fitted to the road shape by the least square method, and the equation is generated as a road model.
In step S27, a coordinate threshold and an angle threshold are set according to the resolution of the camera, and edge points are filtered.
The farther the edge point is, the less the resolution of the camera becomes, and an error occurs in the coordinate value. This error is proportional to the distance of the edge point seen from the vehicle, that is, the Zw coordinate component of the road coordinate system. Therefore, if the edge point is filtered with a uniform threshold, the filtering accuracy is lowered.
そこで、道路座標系のZw座標成分に比例するように、下記の式に従って座標用閾値Dthを設定する。ここで、hは比例係数、D0は閾値Dthの最小値であり、事前に決定される定数である。
Dth=h×|Zw|+D0
同様に、下記の式に従って、角度用閾値θthを設定する。ここで、kは比例係数、θ0は角度用閾値θthの最小値であり、事前に決定される定数である。
θth=k×|Zw|+θ0
上記のように、座標用閾値Dthや角度用閾値θthを設定すること以外は、前記ステップS7と同様の処理を実行する。
Therefore, the coordinate threshold value Dth is set according to the following equation so as to be proportional to the Zw coordinate component of the road coordinate system. Here, h is a proportionality coefficient, D0 is the minimum value of the threshold value Dth, and is a constant determined in advance.
Dth = h × | Zw | + D0
Similarly, the angle threshold θth is set according to the following equation. Here, k is a proportional coefficient, θ0 is the minimum value of the angle threshold θth, and is a constant determined in advance.
θth = k × | Zw | + θ0
As described above, the same process as step S7 is executed except that the coordinate threshold value Dth and the angle threshold value θth are set.
《作用》
本実施形態では、GPS114で現在位置を検出し(ステップS21)、現在位置における車両前方の道路地図情報115を参照することで、走行路の道路形状を取得し(ステップS22)、これに基づいて道路モデルを生成する(ステップS23)。これにより、車線認識の初期から妥当な道路モデルを生成することができる。
また、遠方のエッジ点ほどカメラの分解能が不足し、座標値に誤差が生じる。この誤差は、車両から見たエッジ点の距離、つまり道路座標系のZw座標成分に比例する。したがって、画一的な閾値によってエッジ点のフィルタリングを行うと、フィルタリングの精度が低下してしまう。
<Action>
In this embodiment, the current position is detected by the GPS 114 (step S21), and the road shape of the traveling road is acquired by referring to the
Further, the farther the edge point, the less the resolution of the camera, and the error occurs in the coordinate value. This error is proportional to the distance of the edge point seen from the vehicle, that is, the Zw coordinate component of the road coordinate system. Therefore, if the edge point is filtered with a uniform threshold, the filtering accuracy is lowered.
そこで、道路座標系のZw座標成分に応じて、座標用閾値Dthや角度用閾値θthを設定する。すなわち、Zw座標成分が大きいほど、つまり遠方のエッジ点になるほど、座標用閾値Dthや角度用閾値θthを大きくする(ステップS27)。これにより、遠方のエッジ点になるほど、無効エッジ点として除外されにくくなるので、カメラ100の分解能に起因した誤ったエッジフィルタリングを防ぐことができる。
Therefore, the coordinate threshold Dth and the angle threshold θth are set according to the Zw coordinate component of the road coordinate system. That is, the larger the Zw coordinate component, that is, the farther the edge point, the larger the coordinate threshold value Dth and the angle threshold value θth (step S27). As a result, the far edge points are less likely to be excluded as invalid edge points, so that erroneous edge filtering due to the resolution of the
《効果》
以上より、ステップS21〜S23の処理が「生成手段」に対応し、ステップS27の処理が「選別手段」に対応する。
(1)前記選別手段は、前記撮像手段の分解能に応じて、前記閾値を設定する。
これにより、車線認識の初期から妥当な道路モデルを生成することができる。
(2)前記生成手段は、自車両の現在位置及び道路地図情報に基づいて前記道路モデルを生成する。
これにより、撮像手段の分解能に起因した誤った選別を防ぐことができる。
"effect"
From the above, the processing of steps S21 to S23 corresponds to “generating means”, and the processing of step S27 corresponds to “selecting means”.
(1) The selection unit sets the threshold according to the resolution of the imaging unit.
Thereby, an appropriate road model can be generated from the initial stage of lane recognition.
(2) The generation unit generates the road model based on a current position of the host vehicle and road map information.
As a result, erroneous sorting due to the resolution of the imaging means can be prevented.
《第三実施形態》
《構成》
第三実施形態は、車両の姿勢変化に応じて座標用閾値や角度用閾値を設定すると共に、道路モデルが妥当であるか否かを判断し、適宜、道路モデルを更新するものである。
図11は、車線認識装置の概略構成である。
車線認識装置102は、車両の姿勢変化を検出する加速度センサ116と、現在の道路モデルが妥当であるか否かを判断する道路モデル検証部117と、を備える。
図12は、画像処理プログラムのフローチャートである。
本実施形態では、前記ステップS7の代わりに新たなステップS31、S32の処理を実行し、新たに追加したステップS33、S34の処理を実行することを除いては、前述した第一実施形態と同様の処理を実行する。
<< Third embodiment >>
"Constitution"
In the third embodiment, a coordinate threshold value and an angle threshold value are set according to a change in the posture of the vehicle, it is determined whether or not the road model is appropriate, and the road model is updated as appropriate.
FIG. 11 is a schematic configuration of a lane recognition device.
The
FIG. 12 is a flowchart of the image processing program.
The present embodiment is the same as the first embodiment described above except that the processes of new steps S31 and S32 are executed instead of step S7, and the newly added processes of steps S33 and S34 are executed. Execute the process.
ステップS31では、加速度センサ116で検出した少なくとも鉛直方向(ピッチング方向やバウンド方向を含む)の加速度を読込む。
ステップS32では、加速度Gが所定値Gth以上である場合に、座標用閾値Dthや角度用閾値θthを所定量だけ大きく設定する。このように、座標用閾値Dthや角度用閾値θthを設定すること以外は、前記ステップS7と同様の処理を実行する。
In step S31, at least the acceleration in the vertical direction (including the pitching direction and the bound direction) detected by the
In step S32, when the acceleration G is equal to or greater than the predetermined value Gth, the coordinate threshold Dth and the angle threshold θth are set larger by a predetermined amount. In this way, the same process as in step S7 is executed except that the coordinate threshold value Dth and the angle threshold value θth are set.
続くステップS33では、有効エッジ点の数が所定値より少ないか否かを判定する。有効エッジ点の数が所定値より多いときには、現在の道路モデルが妥当であると判断して前記ステップS8に移行する。一方、有効エッジ点の数が所定値より少ないときには、現在の道路モデルが妥当ではないと判断してステップS34に移行する。
ステップS34では、現在の道路モデルを初期化してから前記ステップS4に戻る。
In a succeeding step S33, it is determined whether or not the number of valid edge points is less than a predetermined value. If the number of valid edge points is greater than the predetermined value, it is determined that the current road model is valid, and the process proceeds to step S8. On the other hand, when the number of valid edge points is less than the predetermined value, it is determined that the current road model is not valid, and the process proceeds to step S34.
In step S34, the current road model is initialized, and then the process returns to step S4.
《作用》
本実施形態では、加速度センサ116で鉛直方向の加速度Gを検出し(ステップS31)、この加速度Gが所定値Gth以上であれば、車両の姿勢変化が大きいと判断して、座標用閾値Dthや角度用閾値θthを大きく設定する(ステップS32)。これにより、無効エッジ点として除外されにくくなるので、車両の姿勢変化に起因した誤ったエッジフィルタリングを防ぐことができる。
<Action>
In the present embodiment, the
また、エッジフィルタリングの結果、大部分が無効エッジ点として除外された場合は、道路モデルが適切でない可能性がある。そこで、有効エッジ点の数をカウントし、その数量が所定値よりも少ないときには、道路モデルが妥当ではないと判断して、一旦、道路モデルを初期化(リセット)し、道路モデルの再構築を図る(ステップS33、S34)。これにより、車線認識の精度が低下することを防ぐことができる。 Also, if most of the edges are excluded as invalid edge points as a result of edge filtering, the road model may not be appropriate. Therefore, the number of valid edge points is counted, and when the quantity is less than the predetermined value, it is determined that the road model is not valid, and the road model is initialized (reset) and the road model is reconstructed. (Steps S33, S34). Thereby, it can prevent that the precision of lane recognition falls.
《効果》
以上より、ステップS31、S32の処理が「選別手段」に対応し、ステップS33、S34の処理が「更新手段」に対応する。
(1)前記選別手段は、車両の姿勢変化に応じて、前記閾値を設定する。
これにより、車両の姿勢変化に起因した誤った選別を防ぐことができる。
(2)前記更新手段は、前記選別手段が選別した有効エッジ点の数に応じて、前記道路モデルが妥当であるか否かを判断し、妥当ではないと判断したときに、当該道路モデルを初期化する。
これにより、車線認識の精度が低下することを防ぐことができる。
"effect"
As described above, the processes in steps S31 and S32 correspond to “selecting means”, and the processes in steps S33 and S34 correspond to “update means”.
(1) The selection means sets the threshold according to a change in the posture of the vehicle.
As a result, it is possible to prevent erroneous sorting due to a change in the attitude of the vehicle.
(2) The updating means determines whether or not the road model is appropriate according to the number of effective edge points selected by the selecting means. initialize.
Thereby, it can prevent that the precision of lane recognition falls.
100 カメラ
104 舵角センサ
105 車速センサ
107 道路モデル生成部
109 エッジ座標・角度検出部
111 エッジフィルタリング処理部
112 道路モデル更新部
DESCRIPTION OF
Claims (8)
前記選別手段は、前記検出手段が検出したエッジ点と前記生成手段が生成した道路モデルとの、座標偏差及び角度偏差のうち少なくとも角度偏差に基づいて前記有効エッジ点を選別するものであり、前記角度偏差に基づいて前記有効エッジ点を選別する際には、前記エッジ点を通り且つ前記道路モデルに直交する直線を引き、当該直線と前記道路モデルとの交点における接線角度、及び前記エッジ点におけるベクトル角度の角度偏差が角度用の閾値より小さいときに、当該エッジ点を前記有効エッジ点として選別することを特徴とする車線認識装置。 Image pickup means for picking up an image of the road, detection means for detecting an edge point whose density change is greater than or equal to a threshold in an image picked up by the image pickup means, generation means for generating a road model of the road, and the detection means Selecting means for selecting effective edge points by comparing the edge points detected by the generating means with the road model generated by the generating means; and updating means for updating the road model based on the effective edge points selected by the selecting means; With
The selecting means is for selecting the effective edge point based on at least an angular deviation among a coordinate deviation and an angular deviation between the edge point detected by the detecting means and the road model generated by the generating means, When selecting the effective edge point based on the angle deviation, a straight line passing through the edge point and orthogonal to the road model is drawn, a tangent angle at the intersection of the straight line and the road model, and the edge point A lane recognition device, wherein an edge point is selected as the effective edge point when an angle deviation of a vector angle is smaller than an angle threshold value.
前記角度偏差に基づいて前記有効エッジ点を選別する際には、前記エッジ点を通り且つ前記道路モデルに直交する直線を引き、当該直線と前記道路モデルとの交点における接線角度、及び前記エッジ点におけるベクトル角度の角度偏差が角度用の閾値より小さいときに、当該エッジ点を前記有効エッジ点として選別することを特徴とする車線認識方法。 In the image of the travel road, an edge point whose density change is equal to or greater than a threshold value is detected, a road model of the travel road is generated, and a coordinate deviation and an angle deviation between the detected edge point and the generated road model are detected. Among them, the effective edge point is selected based on at least the angular deviation, and the road model is updated based on the selected effective edge point.
When selecting the effective edge point based on the angular deviation, a straight line passing through the edge point and orthogonal to the road model is drawn, a tangent angle at the intersection of the straight line and the road model, and the edge point A lane recognition method comprising: selecting an edge point as the effective edge point when an angle deviation of a vector angle at is smaller than an angle threshold value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009014550A JP5310027B2 (en) | 2009-01-26 | 2009-01-26 | Lane recognition device and lane recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009014550A JP5310027B2 (en) | 2009-01-26 | 2009-01-26 | Lane recognition device and lane recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010170488A JP2010170488A (en) | 2010-08-05 |
JP5310027B2 true JP5310027B2 (en) | 2013-10-09 |
Family
ID=42702568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009014550A Expired - Fee Related JP5310027B2 (en) | 2009-01-26 | 2009-01-26 | Lane recognition device and lane recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5310027B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5957182B2 (en) * | 2011-03-01 | 2016-07-27 | 矢崎エナジーシステム株式会社 | Road surface pattern recognition method and vehicle information recording apparatus |
KR101912085B1 (en) * | 2012-07-02 | 2018-10-26 | 현대모비스 주식회사 | Reliability calaulation method of lane detection and Apparatus for calcaulating for performing thereof |
CN103206957B (en) * | 2012-12-26 | 2016-03-02 | 辽宁师范大学 | The lane detection and tracking method of vehicular autonomous navigation |
JP7085435B2 (en) * | 2018-07-24 | 2022-06-16 | スタンレー電気株式会社 | Vehicle system |
CN109737976A (en) * | 2019-01-07 | 2019-05-10 | 上海极奥网络科技有限公司 | Map road section and lane line automatic Generation |
JP7063303B2 (en) * | 2019-04-23 | 2022-05-09 | 株式会社デンソー | Vehicle equipment, vehicle programs and storage media |
US20210155158A1 (en) * | 2019-11-22 | 2021-05-27 | Telenav, Inc. | Navigation system with lane estimation mechanism and method of operation thereof |
CN112766113B (en) * | 2021-01-08 | 2023-09-15 | 广州小鹏自动驾驶科技有限公司 | Intersection detection method, device, equipment and storage medium |
CN115082701B (en) * | 2022-08-16 | 2022-11-08 | 山东高速集团有限公司创新研究院 | Multi-water-line cross identification positioning method based on double cameras |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3525733B2 (en) * | 1998-04-15 | 2004-05-10 | 日産自動車株式会社 | Road white line detector |
JP2007011994A (en) * | 2005-07-04 | 2007-01-18 | Toyota Motor Corp | Road recognition device |
JP4687563B2 (en) * | 2006-05-23 | 2011-05-25 | 株式会社デンソー | Lane mark recognition device for vehicles |
-
2009
- 2009-01-26 JP JP2009014550A patent/JP5310027B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010170488A (en) | 2010-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5310027B2 (en) | Lane recognition device and lane recognition method | |
JP5804185B2 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
EP3032818B1 (en) | Image processing device | |
JP6201148B2 (en) | CALIBRATION APPARATUS, CALIBRATION METHOD, MOBILE BODY CAMERA HAVING CALIBRATION FUNCTION, AND PROGRAM | |
EP1783684A1 (en) | Plane detector and detecting method | |
EP1780675A1 (en) | Object detector | |
EP1783683A1 (en) | Mobile peripheral monitor | |
JP5631581B2 (en) | Road recognition device | |
JP6278791B2 (en) | Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system | |
JP6756101B2 (en) | Object recognition device | |
CN112017249A (en) | Vehicle-mounted camera roll angle obtaining and mounting angle correcting method and device | |
CN112489106A (en) | Video-based vehicle size measuring method and device, terminal and storage medium | |
JP6278790B2 (en) | Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system | |
JP2019003606A (en) | Map change point detection device | |
JP2012159469A (en) | Vehicle image recognition device | |
CN112184792A (en) | Road slope calculation method and device based on vision | |
JP5501084B2 (en) | Planar area detection apparatus and stereo camera system | |
JP6044084B2 (en) | Moving object position and orientation estimation apparatus and method | |
JP4670528B2 (en) | Imaging device deviation detection method, imaging device deviation correction method, and imaging device | |
KR102003387B1 (en) | Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program | |
JP2012159470A (en) | Vehicle image recognition device | |
JP7380443B2 (en) | Partial image generation device and computer program for partial image generation | |
WO2014054124A1 (en) | Road surface markings detection device and road surface markings detection method | |
JP4978938B2 (en) | Distance measuring apparatus and method, and computer program | |
JP2015215299A (en) | Object position estimation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100917 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120813 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130617 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5310027 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |