JP6678505B2 - Imaging device, control method therefor, program, and storage medium - Google Patents

Imaging device, control method therefor, program, and storage medium Download PDF

Info

Publication number
JP6678505B2
JP6678505B2 JP2016086576A JP2016086576A JP6678505B2 JP 6678505 B2 JP6678505 B2 JP 6678505B2 JP 2016086576 A JP2016086576 A JP 2016086576A JP 2016086576 A JP2016086576 A JP 2016086576A JP 6678505 B2 JP6678505 B2 JP 6678505B2
Authority
JP
Japan
Prior art keywords
signal
image
area
read
photoelectric conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016086576A
Other languages
Japanese (ja)
Other versions
JP2017194656A (en
JP2017194656A5 (en
Inventor
和紀 ▲高▼山
和紀 ▲高▼山
俊宏 望月
俊宏 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016086576A priority Critical patent/JP6678505B2/en
Priority to US15/486,851 priority patent/US10205870B2/en
Publication of JP2017194656A publication Critical patent/JP2017194656A/en
Publication of JP2017194656A5 publication Critical patent/JP2017194656A5/ja
Application granted granted Critical
Publication of JP6678505B2 publication Critical patent/JP6678505B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

本発明は、焦点調節及び被写体検出を行う撮像装置に関する。   The present invention relates to an imaging device that performs focus adjustment and subject detection.

従来より、マイクロレンズにより瞳分割された画素を有する撮像素子により得られた像信号の位相差に基づいて焦点検出を行う技術が知られている(特許文献1)。特許文献1では、瞳分割された各画素がマイクロレンズを介して結像光学系の異なる瞳領域を通過した光束を受光する。また、複数の像信号を加算することで画像信号を得ることができる。   2. Description of the Related Art Conventionally, a technique for performing focus detection based on a phase difference between image signals obtained by an image pickup device having pixels that are pupil-divided by a microlens has been known (Patent Document 1). In Patent Literature 1, each pupil-divided pixel receives a light beam that has passed through a different pupil region of an imaging optical system via a microlens. Further, an image signal can be obtained by adding a plurality of image signals.

上記のような位相差方式の焦点検出においては、焦点調節用にどのくらいの量の像信号を読み出して演算処理を行うかを決めることは検出精度や処理速度の面で非常に重要な要素となる。また、像信号を全て取り込もうとすると、画素が2分割された撮像素子では撮像画像用の2倍のデータ量となり、後段の処理回路に多大な負荷をかけることになる。   In the focus detection of the phase difference method as described above, determining how much image signal is read out and performing arithmetic processing for focus adjustment is a very important factor in terms of detection accuracy and processing speed. . In addition, if an attempt is made to capture all image signals, an image sensor having two divided pixels has a data amount twice as large as that of a captured image, which imposes a heavy load on a subsequent processing circuit.

そこで、撮像素子において焦点調節用の距離情報取得領域を任意に設定可能とし、撮像素子からの画像信号の読み出し時間を短縮する撮像装置が提案されている(特許文献2)。また、焦点調節用の距離情報取得領域から得た画像信号を用いて、画像中の被写体の距離の分布(距離マップ)を生成可能な撮像装置が提案されている(特許文献3)。特許文献3の距離マップを用いることで、画像中における主被写体とそれ以外の被写体の距離情報が得られ、主被写体とそれ以外の被写体がすれ違った場合等に主被写体の検出が可能となる。   Therefore, an imaging device has been proposed in which a distance information acquisition region for focus adjustment can be arbitrarily set in the imaging device, and the reading time of an image signal from the imaging device is reduced (Patent Document 2). Also, an imaging device capable of generating a distribution of distances (distance maps) of subjects in an image using an image signal obtained from a focus adjustment distance information acquisition region has been proposed (Patent Document 3). By using the distance map of Patent Document 3, distance information between the main subject and the other subjects in the image can be obtained, and the main subject can be detected when the main subject and the other subjects pass each other.

特開2007−325139号公報JP 2007-325139 A 特開2012−155095号公報JP 2012-155095 A 特開2014−074891号公報JP 2014-074891 A

しかしながら、上記従来技術では、撮影条件によって焦点調節用の距離情報取得領域を変更しているが、画素から読み出した信号に係る処理負荷や消費電力が考慮されていない。   However, in the above-described related art, the focus adjustment distance information acquisition area is changed depending on the shooting conditions, but the processing load and the power consumption of the signal read from the pixel are not taken into consideration.

本発明は、上記課題に鑑みてなされ、その目的は、撮影条件に基づく信号処理に係るシステム負荷や消費電力を考慮して距離情報取得領域を設定することができる技術を実現することである。   The present invention has been made in view of the above problem, and an object of the present invention is to realize a technique capable of setting a distance information acquisition area in consideration of a system load and power consumption related to signal processing based on imaging conditions.

上記課題を解決し、目的を達成するために、本発明の撮像装置は、複数のマイクロレンズを有し、当該複数のマイクロレンズそれぞれに複数の光電変換部が割り当てられて、当該複数の光電変換部ごとに1つの画素をなす撮像素子と、前記撮像素子の光電変換部から順次信号を読み出し、前記撮像素子の各画素における複数の光電変換部からの信号に対応する複数画素からなる画像信号を複数フレーム出力させる読み出し手段と、主被写体に対応する領域を示す情報と、該主被写体の合焦状態を示す情報とを取得する取得手段と、前記読み出し手段により前記撮像素子から視差が異なる信号を読み出す領域を設定する設定手段と、を有し、前記設定手段は、各フレームにおける前記視差が異なる信号を読み出す領域を、前記視差が異なる信号を読み出す領域が包含する画角を略同等に維持しつつ、前記取得手段により取得する前記主被写体の合焦状態が第1の状態であるときに、前記第1の状態よりも合焦に遠い第2の状態であるときよりも高い解像度で前記視差が異なる信号を読み出す領域を設定するIn order to solve the above problems and achieve the object, an imaging device of the present invention has a plurality of microlenses, and a plurality of photoelectric conversion units are assigned to each of the plurality of microlenses, so that the plurality of photoelectric conversion units an imaging device which forms one pixel on each copy, and read out sequentially signals from the photoelectric conversion unit of the image pickup element, consisting of a plurality of pixels corresponding to the signal from the plurality of photoelectric conversion units in each pixel of the image sensor A reading unit that outputs image signals in a plurality of frames, an acquisition unit that acquires information indicating an area corresponding to the main subject, and information indicating a focus state of the main subject, and a parallax from the image sensor by the reading unit. a setting means for setting a region for reading different signals, and the setting means, the region where the parallax in each frame read out different signals, signal the parallax differs When the in-focus state of the main subject acquired by the acquiring means is the first state while maintaining the angle of view encompassed by the area to be read substantially equal, the second subject farther from the first state is in focus than the first state. An area from which signals with different parallaxes are read at a higher resolution than in the state of 2 .

また、本発明の撮像装置は、複数のマイクロレンズを有し、当該複数のマイクロレンズそれぞれに複数の光電変換部が割り当てられて、当該複数の光電変換部ごとに1つの画素をなす撮像素子と、前記撮像素子の光電変換部から順次信号を読み出し、前記撮像素子の各画素における複数の光電変換部からの信号に対応する複数画素からなる画像信号を複数フレーム出力させる読み出し手段と、前記画像信号に基づいて前記画像信号における被写体の数を検出する検出手段と、前記読み出し手段により前記撮像素子から視差が異なる信号を読み出す領域を設定する設定手段と、を有し、前記設定手段は、各フレームにおける前記視差が異なる信号を読み出す領域を、前記視差が異なる信号を読み出す領域が包含する画角を略同等に維持しつつ、前記検出手段により検出される被写体の数が第1の数であるときに、前記第1の数より少ない第2の数であるときよりも高い解像度で前記視差が異なる信号を読み出す領域を設定するIn addition, the imaging device of the present invention has a plurality of microlenses, a plurality of photoelectric conversion units are assigned to each of the plurality of microlenses, and an imaging element which forms one pixel for each of the plurality of photoelectric conversion units. the then read out sequentially signals from the photoelectric conversion unit of the image pickup element, and reading means for a plurality of frames and outputs an image signal composed of a plurality of pixels corresponding to the signal from the plurality of photoelectric conversion units in each pixel of the image sensor, Detecting means for detecting the number of subjects in the image signal based on the image signal , and setting means for setting an area for reading a signal having a different parallax from the image sensor by the reading means, In each frame, the area from which the signal from which the disparity is different is read, while maintaining the view angles included in the area from which the signal from which the disparity is different read out are substantially equal, When the number of subjects detected by the serial detection means is a first number, the parallax with a high resolution is to set a region for reading different signal than when the first is a small second number than the number of .

本発明によれば、撮影条件に基づく信号処理に係るシステム負荷や消費電力を考慮して距離情報取得領域を設定することができるようになる。   According to the present invention, it is possible to set a distance information acquisition area in consideration of a system load and power consumption related to signal processing based on an imaging condition.

本実施形態の撮像装置の構成を示すブロック図。FIG. 1 is a block diagram illustrating a configuration of an imaging device according to an embodiment. 本実施形態の撮像素子の画素配置を模式的に示す図。FIG. 2 is a diagram schematically illustrating a pixel arrangement of the image sensor according to the embodiment. 撮影レンズの射出瞳から出る光束と画素との関係を模式的に示す図。FIG. 4 is a diagram schematically illustrating a relationship between a light flux emitted from an exit pupil of a photographing lens and a pixel. 本実施形態の撮像素子の構成図。FIG. 2 is a configuration diagram of an image sensor according to the embodiment. 本実施形態の撮像素子の単位画素の回路構成図(a)、撮像素子の各単位画素列の読み出し回路の構成図(b)、および撮像素子の画素配列に対して設定される測距枠を示す図(c)。The circuit configuration diagram of the unit pixel of the image sensor of the present embodiment (a), the configuration diagram of the readout circuit of each unit pixel column of the image sensor (b), and the distance measurement frame set for the pixel array of the image sensor are shown in FIG. FIG. 本実施形態の撮像素子の単位画素行の読み出し動作のタイミングチャート。6 is a timing chart of a read operation of a unit pixel row of the image sensor according to the embodiment. 実施形態1の信号読み出し制御部による距離情報取得領域の設定処理を示すフローチャート。9 is a flowchart illustrating a setting process of a distance information acquisition area by a signal readout control unit according to the first embodiment. 実施形態1の信号読み出し制御部により設定される距離情報取得領域を説明する図。FIG. 4 is a diagram illustrating a distance information acquisition area set by a signal readout control unit according to the first embodiment. 実施形態2の撮像装置の構成を示すブロック図。FIG. 9 is a block diagram illustrating a configuration of an imaging device according to a second embodiment. 実施形態2の信号読み出し制御部による距離情報取得領域の設定処理を示すフローチャート。9 is a flowchart illustrating a setting process of a distance information acquisition area by a signal readout control unit according to the second embodiment. 本実施形態の焦点調節及び被写体検出に必要な距離情報取得領域を説明する図。FIG. 4 is a diagram illustrating a distance information acquisition area necessary for focus adjustment and subject detection according to the embodiment.

以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。   Hereinafter, embodiments for carrying out the present invention will be described in detail. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed depending on the configuration of an apparatus to which the present invention is applied and various conditions. However, the present invention is not limited to the embodiment. Further, a part of each embodiment described later may be appropriately combined and configured.

[距離情報取得領域の説明]まず、図11を参照して、本実施形態の距離情報取得領域について具体的に説明する。   [Description of Distance Information Acquisition Area] First, the distance information acquisition area of the present embodiment will be specifically described with reference to FIG.

図11は、画像撮影中のAF制御時に、撮像画面に任意に設定された、焦点調節に必要となる(AF制御用)の距離情報取得領域及びその距離マップと、被写体検出に必要となる(主被写体追尾用)の距離情報取得領域及びその距離マップの関係を例示している。なお、図11の(a)、(b)、(c)において、(a−1)〜(a−4)、(b−1)〜(b−4)、(c−1)〜(c−4)、(d−1)〜(d−4)は、撮像された画像信号の各フレームを時系列的に示したものである。   FIG. 11 shows a distance information acquisition area (for AF control) arbitrarily set on the imaging screen and a distance map thereof, which are arbitrarily set on the imaging screen during AF control during image capturing, and are necessary for subject detection ( 4 illustrates a relationship between a distance information acquisition region (for main subject tracking) and a distance map thereof. In FIGS. 11A, 11B and 11C, (a-1) to (a-4), (b-1) to (b-4), and (c-1) to (c) -4), (d-1) to (d-4) show each frame of the captured image signal in time series.

図11(a)は、撮像画面にAF制御用の距離情報取得領域を設定した場合の画像信号を例示している。図11(a)において、(a−1)はある時刻における画像信号とAF制御用の距離情報取得領域を示しており、1100は主被写体、1101は主被写体以外の被写体、1102は距離情報取得領域を示している。AF制御用には、主被写体の距離情報が取得できればよいので、AF制御用に設定される距離情報取得領域は主被写体の周辺であればよい。よって、(a−1)のように距離情報取得領域1102が画面に局所的に設定される。また、(a−1)〜(a−4)のように時間が経過していくに従って主被写体以外の被写体1101が主被写体1100に近づき(a−2)、主被写体以外の被写体1101と主被写体1100が重なり(a−3)、主被写体以外の被写体1101が画面から消え、主被写体1100のみが残った状態となっている(a−4)。すなわち、(a−1)〜(a−4)の画像は、主被写体とそれ以外の被写体がすれ違ったシーンを示している。   FIG. 11A illustrates an image signal when a distance information acquisition area for AF control is set on the imaging screen. In FIG. 11A, (a-1) shows an image signal at a certain time and a distance information acquisition area for AF control, where 1100 is a main subject, 1101 is a subject other than the main subject, and 1102 is distance information acquisition area. The area is shown. Since it is sufficient that the distance information of the main subject can be acquired for the AF control, the distance information acquisition region set for the AF control need only be around the main subject. Therefore, the distance information acquisition area 1102 is locally set on the screen as in (a-1). As time elapses as in (a-1) to (a-4), the subject 1101 other than the main subject approaches the main subject 1100 (a-2), and the subject 1101 other than the main subject and the main subject 1100 overlaps (a-3), the subject 1101 other than the main subject disappears from the screen, and only the main subject 1100 remains (a-4). That is, the images (a-1) to (a-4) show scenes in which the main subject and other subjects have passed each other.

図11(b)の距離マップでは、主被写体1100に対してAF制御用の距離情報取得領域が設定されている。図11(b)は、図11(a)の距離情報取得領域1102から得られた距離マップを例示している。図11(b)において、(b−1)は(a−1)の距離情報取得領域から得られた距離マップであり、格子領域1103は主被写体1100の距離、白塗り部1104は背景の距離を表している。また、黒塗り部1105は距離情報取得領域外であるため距離情報が取得できないことを表している。また、(b−3)の斜線部1106は、(a−3)の主被写体以外の被写体1101の距離を表している。 In the distance map of FIG. 11B, a distance information acquisition area for AF control is set for the main subject 1100. FIG. 11B illustrates a distance map obtained from the distance information acquisition area 1102 in FIG. 11A. In FIG. 11B, (b-1) is a distance map obtained from the distance information acquisition area of (a-1), the grid area 1103 is the distance of the main subject 1100, and the white area 1104 is the distance of the background. Is represented. Further, the black portion 1105 indicates that the distance information cannot be acquired because it is outside the distance information acquisition area. A hatched portion 1106 in (b-3) represents the distance of the subject 1101 other than the main subject in (a-3).

ここで、図11(b)の距離マップを用いて主被写体1100の検出を行う場合、(b−1)と(b−2)では主被写体1100の距離1103しか得られず、(b−3)で急に主被写体1100の距離が変化したようになる。実際には、主被写体以外の被写体1101が主被写体1100に重なったために距離が変化するのであるが、正しい判断ができなくなる可能性がある。   Here, when the main subject 1100 is detected using the distance map of FIG. 11B, only the distance 1103 of the main subject 1100 is obtained in (b-1) and (b-2), and (b-3) ), The distance of the main subject 1100 suddenly changes. Actually, the distance changes because the subject 1101 other than the main subject overlaps the main subject 1100, but there is a possibility that a correct judgment cannot be made.

図11(c)は、撮像画面に被写体検出用の距離情報取得領域を設定した場合の画像信号を例示している。図11(c)において、(c−1)はある時刻における画像信号と被写体検出用の距離情報取得領域を示している。距離情報を用いて主被写体1100を検出するためには主被写体周辺の状況を判断する必要がある。このため画面全体が俯瞰できるように距離情報取得領域を設定する必要がある。よって、(c−1)のように距離情報取得領域1107が画面全体に離散的に設定される。なお、(c−1)〜(c−4)のように時間が経過していること、(c−3)で主被写体以外の被写体1101が主被写体1100に重なった状況は、図11(a)の(aー3)と同様である。   FIG. 11C illustrates an example of an image signal when a distance information acquisition region for subject detection is set on the imaging screen. In FIG. 11C, (c-1) shows an image signal at a certain time and a distance information acquisition region for subject detection. In order to detect the main subject 1100 using the distance information, it is necessary to determine the situation around the main subject. Therefore, it is necessary to set the distance information acquisition area so that the entire screen can be overlooked. Therefore, the distance information acquisition area 1107 is discretely set on the entire screen as in (c-1). FIG. 11 (a) shows that the time has passed as in (c-1) to (c-4), and that the subject 1101 other than the main subject overlaps the main subject 1100 in (c-3). ) Is the same as (a-3).

図11(d)は、図11(c)の距離情報取得領域1107から得られた距離マップを例示している。図11(d)では画面全体が俯瞰できるように距離情報取得領域1107が設定されているため、距離マップから、(d−1)から(d−2)へ時間が経過していくに従って主被写体以外の被写体1101が主被写体1100に近づいていることがわかる。また、(d−3)では主被写体1100と、主被写体以外の被写体1101が重なっているが、(d−1)から(d−2)において主被写体以外の被写体1101が主被写体1100に近づいていることと、その被写体1101が斜線で示す距離1109を持っていることから、主被写体1100と、主被写体以外の被写体1101が重なっている可能性が高いと判断できる。一方で、主被写体1100の距離1108は離散的にしか得られない。   FIG. 11D illustrates a distance map obtained from the distance information acquisition area 1107 in FIG. 11C. In FIG. 11D, since the distance information acquisition area 1107 is set so that the entire screen can be overlooked, the main subject is taken from the distance map as time elapses from (d-1) to (d-2). It can be seen that subjects 1101 other than are approaching main subject 1100. In (d-3), the main subject 1100 and the subject 1101 other than the main subject overlap, but in (d-1) to (d-2), the subject 1101 other than the main subject approaches the main subject 1100. And the subject 1101 has a distance 1109 indicated by oblique lines, it can be determined that there is a high possibility that the main subject 1100 and the subject 1101 other than the main subject overlap. On the other hand, the distance 1108 of the main subject 1100 can be obtained only discretely.

このように、被写体検出用の距離情報取得領域は画面全体が俯瞰できるように設定する必要がある。   As described above, it is necessary to set the distance information acquisition area for subject detection so that the entire screen can be overlooked.

しかしながら、撮影条件(被写体の明るさや被写体数など)によっては被写体検出用の距離情報取得領域から取得する画像信号は低解像度でもよい場合がある。例えば、被写体の合焦状態が大ボケ状態に近い(コントラスト評価値が小さい)ほど被写体検出用の距離情報取得領域から得られる距離マップは有用ではないので、このような場合は被写体検出用の距離情報取得領域からの信号読み出し量を少なくすることで信号読み出し速度や電力消費を優先し、AF制御における収束性を高めることが望ましい。   However, depending on the shooting conditions (such as the brightness of the subject and the number of subjects), the image signal acquired from the subject detection distance information acquisition region may have a low resolution. For example, the closer the focus state of the subject is to the large blur state (the smaller the contrast evaluation value), the less useful the distance map obtained from the subject detection distance information acquisition area is. It is desirable to prioritize signal reading speed and power consumption by reducing the amount of signal reading from the information acquisition area, and to improve convergence in AF control.

そこで、本実施形態では、画像撮影中のAF制御時に、撮影条件に基づいて被写体検出用の距離情報取得領域の信号読み出し量を制御することで、負荷の増大や無駄な消費電力を抑えることができるようにしている。なお、AF制御用の距離情報取得領域の粗密は変更しない。   Therefore, in the present embodiment, at the time of AF control during image shooting, by controlling the signal readout amount of the distance information acquisition area for subject detection based on shooting conditions, it is possible to suppress an increase in load and unnecessary power consumption. I can do it. The density of the distance information acquisition area for AF control is not changed.

[実施形態1]
本実施形態では、撮像装置を、コントラスト方式及び位相差方式のオートフォーカス(AF)機能並びに被写体検出機能(主被写体追尾機能)を有するデジタルビデオカメラにより実現した例について説明するが、携帯電話の一種であるスマートフォンやタブレット端末などの電子機器にも適用可能である。
[Embodiment 1]
In the present embodiment, an example in which the imaging apparatus is realized by a digital video camera having an autofocus (AF) function of a contrast method and a phase difference method and a subject detection function (main subject tracking function) will be described. It is also applicable to electronic devices such as smartphones and tablet terminals.

<装置構成>
以下に、図1を参照して、本実施形態の撮像装置100の構成について説明する。
<Apparatus configuration>
Hereinafter, the configuration of the imaging device 100 according to the present embodiment will be described with reference to FIG.

図1において、光学系1は、ズームレンズ、フォーカスレンズ、絞りを含む。光学系駆動部2は、後述するAF制御部8から出力される光学系駆動情報に基づいて光学系1を制御する。撮像素子3は、CMOSなどの光電変換素子を備え、光学系1により受光面に結像された被写体像を電気信号に変換して画像信号を出力する。   In FIG. 1, an optical system 1 includes a zoom lens, a focus lens, and a diaphragm. The optical system drive unit 2 controls the optical system 1 based on optical system drive information output from an AF control unit 8 described later. The imaging element 3 includes a photoelectric conversion element such as a CMOS, converts a subject image formed on the light receiving surface by the optical system 1 into an electric signal, and outputs an image signal.

信号読み出し制御部4は、AF制御部8により制御されて、後述する評価情報取得手段としてのコントラスト検出部5からのコントラスト評価値(評価情報)に基づいて撮像素子3を駆動し画像信号の読み出しを制御する。なお、本実施形態の撮像素子3は、光学系1の異なる瞳領域を通過した光束をそれぞれ受光し、瞳分割された画像信号を出力する複数の画素部を有する。そして、信号読み出し制御部4からの駆動パルスによって瞳分割された各画素から視差が異なる画像信号(A像信号、B像信号)を個別に読み出すことができる。撮像素子3の回路構成は、図2から図6を用いて後述する。   The signal readout control unit 4 is controlled by the AF control unit 8 to drive the image pickup device 3 based on a contrast evaluation value (evaluation information) from a contrast detection unit 5 as evaluation information acquisition means described later to read out an image signal. Control. Note that the image sensor 3 of the present embodiment has a plurality of pixel units that respectively receive light beams that have passed through different pupil regions of the optical system 1 and output pupil-divided image signals. Then, image signals (A-image signal and B-image signal) having different parallax can be individually read from the respective pixels pupil-divided by the drive pulse from the signal read control unit 4. The circuit configuration of the image sensor 3 will be described later with reference to FIGS.

コントラスト検出部5は、撮像素子3からの画像信号に基づき、コントラスト評価値を算出し、信号読み出し制御部4に出力する。   The contrast detector 5 calculates a contrast evaluation value based on the image signal from the image sensor 3 and outputs the calculated contrast evaluation value to the signal read controller 4.

測距部6は、撮像素子3からの画像信号(A像信号、B像信号)に基づき、AF制御用の距離情報(第2の深さ情報)及び画面内の被写体検出用の距離情報(第1の深さ情報、距離マップデータ)を算出し、被写体追尾部7とAF制御部8に出力する。 Based on the image signals (A image signal and B image signal) from the image sensor 3, the distance measurement unit 6 performs distance information for AF control (second depth information) and distance information for detecting a subject in the screen (second information). First depth information and distance map data) are calculated and output to the subject tracking unit 7 and the AF control unit 8.

被写体追尾部7は、撮像素子3からの画像信号と測距部6からの位相差情報とに基づき、撮像画像中の被写体を検出し、検出された被写体から主被写体を判別し、その位置や大きさ(サイズ)に関する情報(以下、被写体情報)を、AF制御部8に出力する。   The subject tracking unit 7 detects a subject in a captured image based on the image signal from the image sensor 3 and the phase difference information from the distance measurement unit 6, determines a main subject from the detected subjects, Information about the size (hereinafter, subject information) is output to the AF control unit 8.

AF制御部8は、システム制御部13により制御されて、コントラスト方式または位相差方式のAF制御を行う。AF制御部8は、コントラスト方式のAFの場合は、コントラスト検出部5のコントラスト評価値に基づく制御信号を光学系駆動部2に出力する。また、AF制御部8は、位相差方式のAFの場合は、被写体追尾部7からの被写体情報と測距部6からの距離情報を取得し、光学系駆動部2に制御信号を出力する。   The AF control unit 8 is controlled by the system control unit 13 to perform contrast type or phase difference type AF control. The AF control unit 8 outputs a control signal based on the contrast evaluation value of the contrast detection unit 5 to the optical system driving unit 2 in the case of contrast AF. Further, in the case of phase-difference AF, the AF control unit 8 obtains subject information from the subject tracking unit 7 and distance information from the distance measuring unit 6 and outputs a control signal to the optical system driving unit 2.

信号処理部9は、撮像素子3からの像信号を加算した画像信号を生成し、所定の信号処理を施して表示用あるいは記録用の画像信号を出力する。また、信号処理部9は、生成された画像信号に対して、色変換、ホワイトバランス補正、ガンマ補正等の画像処理、解像度変換処理、画像圧縮処理等を行い、記録部10や表示部11に表示用あるいは記録用の画像信号を出力する。   The signal processing unit 9 generates an image signal obtained by adding the image signals from the image sensor 3, performs predetermined signal processing, and outputs a display or recording image signal. The signal processing unit 9 performs image processing such as color conversion, white balance correction, and gamma correction, resolution conversion processing, and image compression processing on the generated image signal. An image signal for display or recording is output.

記録部10は信号処理部9により生成された画像信号を記録したり、既に記録された画像が読み出されるメモリーカードやハードディスクなどである。表示部11は信号処理部9により生成された画像や各種メニュー画面などを表示する液晶パネル(LCD)などである。操作部12は、ユーザ操作を受け付ける各種スイッチ(AFオン/オフ、ズームなど)であり、ユーザからの指示をシステム制御部13に送出する。   The recording unit 10 is a memory card, a hard disk, or the like from which an image signal generated by the signal processing unit 9 is recorded and from which an already recorded image is read. The display unit 11 is a liquid crystal panel (LCD) that displays images generated by the signal processing unit 9, various menu screens, and the like. The operation unit 12 is various switches (AF on / off, zoom, etc.) for receiving a user operation, and sends an instruction from the user to the system control unit 13.

システム制御部13は、撮像装置100の各種機能を統括して制御するための、CPU、RAM、ROMや、専用の回路などを含む。CPUは、不揮発性メモリであるROMに格納されたプログラムをワークメモリとしてのRAMに展開し実行することで、後述する制御シーケンスを実行する。   The system control unit 13 includes a CPU, a RAM, a ROM, a dedicated circuit, and the like for controlling various functions of the imaging apparatus 100 in a centralized manner. The CPU executes a control sequence described later by expanding and executing a program stored in the ROM, which is a nonvolatile memory, in the RAM as the work memory.

<撮像素子の構成>
図2は撮像素子3の画素配置を示す模式図である。単位画素200が行列状に配列されており、各単位画素200に対してR(Red)/G(Green)/B(Blue)のカラーフィルタがベイヤー状に配置されている。また、各単位画素200内にはそれぞれ副画素a、副画素bが配置されており、フォトダイオード(以下、PD)201a、201bがそれぞれの副画素a、bに配置されている。副画素a、bから出力される各々の撮像信号は焦点検出に利用され、副画素a、副画素bから出力される撮像信号を加算した信号であるa/b合成信号は画像生成用に利用される。
<Configuration of imaging device>
FIG. 2 is a schematic diagram illustrating a pixel arrangement of the image sensor 3. The unit pixels 200 are arranged in a matrix, and a color filter of R (Red) / G (Green) / B (Blue) is arranged in a Bayer shape for each unit pixel 200. In each unit pixel 200, a sub-pixel a and a sub-pixel b are respectively arranged, and photodiodes (hereinafter, PD) 201a and 201b are arranged in the respective sub-pixels a and b. Each imaging signal output from the sub-pixels a and b is used for focus detection, and an a / b composite signal, which is a signal obtained by adding the imaging signals output from the sub-pixels a and b, is used for image generation. Is done.

図3は、光学系1の異なる射出瞳から出る光束と単位画素200との関係を示しており、図2と同様の部分については、同じ符号を付している。   FIG. 3 shows the relationship between light fluxes emitted from different exit pupils of the optical system 1 and the unit pixels 200, and the same parts as those in FIG. 2 are denoted by the same reference numerals.

図3に示すように、カラーフィルタ301とマイクロレンズ302とが、各々の単位画素200上に形成されている。レンズの射出瞳303を通過した光は、光軸304を中心として単位画素200に入射する。射出瞳303の一部の領域である瞳領域305を通過する光束は、マイクロレンズ302を通って、副画素aで受光される。一方、射出瞳303の他の一部の領域である瞳領域306を通過する光束は、マイクロレンズ302を通って、副画素bで受光される。したがって、副画素aと副画素bは、それぞれ、光学系1の射出瞳303の別々の瞳領域305、306の光を受光している。このため、副画素aの出力信号(A像信号)と副画素bの出力信号(B像信号)を比較することで(撮像面)位相差方式の焦点検出が可能となる。   As shown in FIG. 3, a color filter 301 and a micro lens 302 are formed on each unit pixel 200. The light that has passed through the exit pupil 303 of the lens enters the unit pixel 200 around the optical axis 304. A light beam passing through a pupil region 305 which is a part of the exit pupil 303 passes through the microlens 302 and is received by the sub-pixel a. On the other hand, a light beam passing through a pupil region 306 which is another part of the exit pupil 303 passes through the microlens 302 and is received by the sub-pixel b. Therefore, the sub-pixel a and the sub-pixel b respectively receive light in different pupil regions 305 and 306 of the exit pupil 303 of the optical system 1. For this reason, by comparing the output signal of the sub-pixel a (image signal A) with the output signal of the sub-pixel b (image signal B), it is possible to perform focus detection by the (imaging plane) phase difference method.

図4は、撮像素子3の回路構成を示している。画素領域PAには、単位画素200がp11〜pknのように行列状(n行×k列)に配置されている。ここで、単位画素200の構成を、図5(a)を用いて説明する。図5(a)は、撮像素子の単位画素の回路構成を示す図である。   FIG. 4 shows a circuit configuration of the image sensor 3. In the pixel area PA, the unit pixels 200 are arranged in a matrix (n rows × k columns) like p11 to pkn. Here, the configuration of the unit pixel 200 will be described with reference to FIG. FIG. 5A is a diagram illustrating a circuit configuration of a unit pixel of the imaging device.

図5(a)において、前述した副画素a、bのPD(光電変換部)501a、501bに入射した光信号が、PD501a、501bによって光電変換され、露光量に応じた電荷がPD501a、501bに蓄積される。転送ゲート502a、502bのゲートに印加する信号txa、txbをそれぞれHighレベルにすることで、PD501a、501bに蓄積されている電荷がFD(フローティングディフュージョン)部503に転送される(電荷転送)。FD部503は、フローティングディフュージョンアンプ504(以下FDアンプと表す)のゲートに接続されており、PD501a、501bから転送されてきた電荷量がFDアンプ504によって電圧量に変換される。   In FIG. 5A, the optical signals incident on the PDs (photoelectric conversion units) 501a and 501b of the sub-pixels a and b described above are photoelectrically converted by the PDs 501a and 501b, and charges corresponding to the exposure amounts are stored in the PDs 501a and 501b. Stored. By setting the signals txa and txb applied to the gates of the transfer gates 502a and 502b to High level, the charges accumulated in the PDs 501a and 501b are transferred to the FD (floating diffusion) unit 503 (charge transfer). The FD section 503 is connected to a gate of a floating diffusion amplifier 504 (hereinafter, referred to as an FD amplifier), and the amount of electric charge transferred from the PDs 501a and 501b is converted into a voltage amount by the FD amplifier 504.

FD部503をリセットするためのFDリセットスイッチ505のゲートに印加する信号resをHighレベルとすることにより、FD部503がリセットされる。また、PD501a、501bの電荷をリセットする場合には、信号resと信号txa、txbとを同時にHighレベルとする。これにより、転送ゲート502a、502b及びFDリセットスイッチ505の両方がON状態となり、FD部503経由でPD501a、501bがリセットされる。画素選択スイッチ506のゲートに印加する信号selをHighレベルとすることにより、FDアンプ504によって電圧に変換された画素信号が単位画素200の出力voutに出力される。   By setting the signal res applied to the gate of the FD reset switch 505 for resetting the FD unit 503 to a high level, the FD unit 503 is reset. When resetting the charges of the PDs 501a and 501b, the signal res and the signals txa and txb are simultaneously set to High level. As a result, both the transfer gates 502a and 502b and the FD reset switch 505 are turned on, and the PDs 501a and 501b are reset via the FD unit 503. By setting the signal sel applied to the gate of the pixel selection switch 506 to High level, the pixel signal converted into a voltage by the FD amplifier 504 is output to the output vout of the unit pixel 200.

図4に示すように、垂直走査回路401は、前述の単位画素200の各スイッチを制御するres、txa、txb、selといった駆動信号を各単位画素200に供給する。これらの駆動信号res、txa、txb、selは、行毎において共通となっている。各単位画素200の出力voutは、列毎に垂直出力線402を介して列共通読出し回路403に接続されている。   As shown in FIG. 4, the vertical scanning circuit 401 supplies drive signals such as res, txa, txb, and sel for controlling each switch of the unit pixel 200 to each unit pixel 200. These drive signals res, txa, txb, and sel are common to each row. The output vout of each unit pixel 200 is connected to a column common readout circuit 403 via a vertical output line 402 for each column.

ここで、列共通読出し回路403の構成を、図5(b)を用いて説明する。   Here, the configuration of the column common read circuit 403 will be described with reference to FIG.

垂直出力線402は、単位画素200の列毎に設けられ、1列分の単位画素200の出力voutが接続されている。垂直出力線402には電流源404が接続されており、電流源404と、垂直出力線402に接続された単位画素200のFDアンプ504とによってソースフォロワ回路が構成される。   The vertical output line 402 is provided for each column of the unit pixels 200, and the output vout of the unit pixels 200 for one column is connected. A current source 404 is connected to the vertical output line 402, and a source follower circuit is configured by the current source 404 and the FD amplifier 504 of the unit pixel 200 connected to the vertical output line 402.

図5(b)において、クランプ容量601はC1の容量を有しており、フィードバック容量602はC2の容量を有しており、演算増幅器603は、基準電源Vrefに接続された非反転入力端子を有している。スイッチ604はフィードバック容量602の両端をショートさせるためのものであり、スイッチ604は信号cfsによって制御される。   In FIG. 5B, the clamp capacitance 601 has a capacitance of C1, the feedback capacitance 602 has a capacitance of C2, and the operational amplifier 603 has a non-inverting input terminal connected to the reference power supply Vref. Have. The switch 604 is for short-circuiting both ends of the feedback capacitor 602, and the switch 604 is controlled by the signal cfs.

転送スイッチ605〜608は、それぞれ単位画素200から読み出される信号を各信号保持容量609〜612に転送するためのものである。後述する読み出し動作によって、第1のS信号保持容量609には、副画素aから出力される画素信号Saが記憶される。また、第2のS信号保持容量611には、副画素aから出力される信号と副画素bから出力される信号とを合成(加算)した信号であるa/b合成信号Sabが記憶される。また、第1のN信号保持容量610及び第2のN信号保持容量612には、単位画素200のノイズ信号Nがそれぞれ記憶される。各信号保持容量609〜612は、それぞれ列共通読出し回路403の出力vsa、vna、vsb、vnbに接続されている。   The transfer switches 605 to 608 are for transferring signals read from the unit pixels 200 to the signal holding capacitors 609 to 612, respectively. The pixel signal Sa output from the sub-pixel a is stored in the first S signal holding capacitor 609 by a read operation described later. The second S signal holding capacitor 611 stores an a / b combined signal Sab that is a signal obtained by combining (adding) a signal output from the sub-pixel a and a signal output from the sub-pixel b. . The first N signal holding capacitor 610 and the second N signal holding capacitor 612 store the noise signal N of the unit pixel 200, respectively. The signal holding capacitors 609 to 612 are connected to the outputs vsa, vna, vsb, and vnb of the column common readout circuit 403, respectively.

列共通読出し回路403の出力vsa、vnaには、それぞれ水平転送スイッチ405、406が接続されている。水平転送スイッチ405、406は、水平走査回路411の出力信号ha*(*は列番号)によって制御される。   Horizontal transfer switches 405 and 406 are connected to outputs vsa and vna of the column common read circuit 403, respectively. The horizontal transfer switches 405 and 406 are controlled by an output signal ha * (* is a column number) of the horizontal scanning circuit 411.

また、列共通読出し回路403の出力vsb、vnbには、それぞれ水平転送スイッチ407、408が接続されている。水平転送スイッチ407、408は、水平走査回路411の出力信号hb*(*は列番号)によって制御される。水平出力線409、410は差動増幅器414の入力に接続されており、差動増幅器414ではS信号とN信号の差分をとると同時に所定のゲインをかけ、最終的な出力信号を出力端子415へ出力する。   The horizontal transfer switches 407 and 408 are connected to the outputs vsb and vnb of the column common read circuit 403, respectively. The horizontal transfer switches 407 and 408 are controlled by an output signal hb * (* is a column number) of the horizontal scanning circuit 411. The horizontal output lines 409 and 410 are connected to the input of the differential amplifier 414. The differential amplifier 414 takes a difference between the S signal and the N signal, applies a predetermined gain at the same time, and outputs the final output signal to the output terminal 415. Output to

水平出力線リセットスイッチ412、413のゲートに印加する信号chresをHighにすると、水平出力線リセットスイッチ412、413がONとなり、各水平出力線409、410がリセット電圧Vchresにリセットされる。   When the signal chres applied to the gates of the horizontal output line reset switches 412 and 413 is set to High, the horizontal output line reset switches 412 and 413 are turned ON, and the horizontal output lines 409 and 410 are reset to the reset voltage Vchres.

以下、像信号Aの読み出し動作と、像信号Aと像信号Bの合成信号である像信号ABの読み出し動作について説明する。   Hereinafter, the reading operation of the image signal A and the reading operation of the image signal AB which is a composite signal of the image signal A and the image signal B will be described.

図5(c)は、撮像素子3の画素領域PAに設定される焦点調節用の距離情報取得領域と被写体検出用の距離情報取得領域との関係を示している。測距枠620は、AF制御部8からの領域情報によって測距部6により設定される。   FIG. 5C shows a relationship between a focus adjustment distance information acquisition area set in the pixel area PA of the image sensor 3 and a subject detection distance information acquisition area. The distance measurement frame 620 is set by the distance measurement unit 6 based on area information from the AF control unit 8.

k列×n行の画素で構成される画素領域PAにおいて、点線で示す領域が測距枠620である。斜線部で示す距離情報取得領域R1に含まれる単位画素の行(画素ライン)からは、A像信号及びA+B像信号が読み出され、画像の生成、焦点検出及び被写体検出に使用される。距離情報取得領域R1以外の領域R2に含まれる単位画素の行(画素ライン)からは、A像信号とB像信号の加算信号のみが読み出され、画像生成のみに使用される。   In the pixel area PA composed of pixels of k columns × n rows, the area indicated by the dotted line is the distance measurement frame 620. An A image signal and an A + B image signal are read from a unit pixel row (pixel line) included in the distance information acquisition region R1 indicated by the hatched portion, and used for image generation, focus detection, and subject detection. From the unit pixel row (pixel line) included in the area R2 other than the distance information acquisition area R1, only the addition signal of the A image signal and the B image signal is read and used only for image generation.

なお、図5(c)に示すように、画素領域の垂直方向に複数の領域R1を設定した場合、各領域R1における単位画素200の行の数を互いに異ならせて設定してもよい。   In addition, as shown in FIG. 5C, when a plurality of regions R1 are set in the vertical direction of the pixel region, the number of rows of the unit pixels 200 in each region R1 may be set to be different from each other.

次に、撮像素子3の読み出し動作について図6(a)を用いて説明する。図6(a)は、前述の領域R2の各行に対して行われる読み出し動作のタイミングチャートである。   Next, a read operation of the image sensor 3 will be described with reference to FIG. FIG. 6A is a timing chart of a read operation performed on each row of the region R2.

まず、信号cfsをHighレベルにしてスイッチ604をONすることにより、演算増幅器603をバッファ状態にする。次に、信号selをHighレベルにして単位画素の画素選択スイッチ506をONにする。その後、信号resをLowレベルにしてFDリセットスイッチ505をOFFにし、FD部503のリセットを開放する。   First, the signal cfs is set to a high level to turn on the switch 604, thereby putting the operational amplifier 603 into a buffer state. Next, the signal sel is set to High level to turn on the pixel selection switch 506 of the unit pixel. After that, the signal res is set to the low level, the FD reset switch 505 is turned off, and the reset of the FD section 503 is released.

続いて信号cfsをLowレベルに戻してスイッチ604をOFFにした後、信号tna、tnbをHighレベルにして、転送スイッチ606、608を介して第1のN信号保持容量610及び第2のN信号保持容量612にノイズ信号Nを記憶する。   Subsequently, after the signal cfs is returned to the low level to turn off the switch 604, the signals tna and tnb are set to the high level, and the first N signal holding capacitor 610 and the second N signal are transferred via the transfer switches 606 and 608. The noise signal N is stored in the storage capacitor 612.

次いで、信号tna、tnbをLowにし、転送スイッチ606、608をOFFにする。その後、信号tsbをHighレベルにして転送スイッチ607をONにすると共に、信号txa及びtxbをHighレベルにすることで転送ゲート502aと502bをONにする。この動作により、副画素aのPD501aに蓄積されていた電荷信号及び副画素bのPD501bに蓄積された電荷信号を合成した信号が、FDアンプ504、画素選択スイッチ506を介して垂直出力線402へ出力される。垂直出力線402の信号は、クランプ容量601の容量C1とフィードバック容量602の容量C2との容量比に応じたゲインで演算増幅器603により増幅され、転送スイッチ607を介して第2のS信号保持容量611へ記憶される(a/b合成信号Sab)。転送ゲート502a及び502bと、転送スイッチ607とを順次OFFにした後、信号resをHighレベルにしてFDリセットスイッチ505をONにし、FD部503をリセットする。   Next, the signals tna and tnb are set to Low, and the transfer switches 606 and 608 are turned OFF. Thereafter, the signal tsb is set to the high level to turn on the transfer switch 607, and the signals txa and txb are set to the high level to turn on the transfer gates 502a and 502b. With this operation, a signal obtained by combining the charge signal stored in the PD 501 a of the sub-pixel a and the charge signal stored in the PD 501 b of the sub-pixel b is sent to the vertical output line 402 via the FD amplifier 504 and the pixel selection switch 506. Is output. The signal on the vertical output line 402 is amplified by the operational amplifier 603 with a gain according to the capacitance ratio between the capacitance C1 of the clamp capacitance 601 and the capacitance C2 of the feedback capacitance 602, and is transferred via the transfer switch 607 to the second S signal holding capacitance. 611 (a / b combined signal Sab). After sequentially turning off the transfer gates 502a and 502b and the transfer switch 607, the signal res is set to a high level, the FD reset switch 505 is turned on, and the FD section 503 is reset.

次に、水平走査回路411の出力hb1がHighレベルになることにより、水平転送スイッチ407、408がONされる。これにより、第2のS信号保持容量711、第2のN信号保持容量712の信号が水平出力線409、410と差動増幅器414を介して出力端子415に出力される。水平走査回路411は、各列の選択信号hb1、hb2、・・・、hbkを順次Highにすることにより、1行分のa/b合成信号(A+B像信号)を出力する。尚、信号hb1〜hbkによって各列の信号が読み出される間には、信号chresをHighレベルにすることで水平出力線リセットスイッチ412、413をONし、一旦、水平出力線409、410をリセット電圧Vchresのレベルにリセットする。   Next, when the output hb1 of the horizontal scanning circuit 411 becomes High level, the horizontal transfer switches 407 and 408 are turned on. Thus, the signals of the second S signal holding capacitor 711 and the second N signal holding capacitor 712 are output to the output terminal 415 via the horizontal output lines 409 and 410 and the differential amplifier 414. The horizontal scanning circuit 411 outputs the a / b composite signal (A + B image signal) for one row by sequentially setting the selection signals hb1, hb2,..., Hbk of each column to High. Note that while the signals in each column are read out by the signals hb1 to hbk, the horizontal output line reset switches 412 and 413 are turned on by setting the signal chres to High level, and the horizontal output lines 409 and 410 are temporarily reset to a reset voltage. Reset to Vchres level.

以上が、領域R2における単位画素の各行の読み出し動作である。これにより、A+B像信号が読み出されることになる。   The above is the reading operation of each row of the unit pixels in the region R2. As a result, the A + B image signal is read.

続いて、領域R1の各行の読み出し動作について図6(b)、図6(c)を用いて説明する。図6(b)は、A像信号が読み出されるまでの動作のタイミングチャートである。信号cfsをHighレベルにすることから始まり、信号tna、tnbをLowにして第1のN信号保持容量610及び第2のN信号保持容量612にN信号を記憶するまでの動作は、図6(a)で説明した動作と同様である。   Subsequently, a read operation of each row in the region R1 will be described with reference to FIGS. 6B and 6C. FIG. 6B is a timing chart of the operation until the A image signal is read. The operation starting from setting the signal cfs to the High level, setting the signals tna and tnb to Low, and storing the N signal in the first N signal holding capacitor 610 and the second N signal holding capacitor 612 is shown in FIG. The operation is the same as that described in a).

ノイズ信号Nの記憶が終了すると、信号tsaをHighレベルにして転送スイッチ605をONにすると共に、信号txaをHighレベルにすることで転送ゲート502aをONする。このような動作によって、副画素aのPD501aに蓄積されていた信号が、FDアンプ504及び画素選択スイッチ506を介して垂直出力線402へ出力される。垂直出力線402の信号は、演算増幅器603において、クランプ容量601の容量C1とフィードバック容量602の容量C2との容量比に応じたゲインで増幅され、転送スイッチ605を介して第1のS信号保持容量609に記憶される(画素信号Sa)。   When the storage of the noise signal N is completed, the signal tsa is set to High level to turn on the transfer switch 605, and the signal txa is set to High level to turn on the transfer gate 502a. By such an operation, the signal accumulated in the PD 501a of the sub-pixel a is output to the vertical output line 402 via the FD amplifier 504 and the pixel selection switch 506. The signal of the vertical output line 402 is amplified by the operational amplifier 603 with a gain corresponding to the capacitance ratio between the capacitance C1 of the clamp capacitance 601 and the capacitance C2 of the feedback capacitance 602, and the first S signal is held via the transfer switch 605. It is stored in the capacitor 609 (pixel signal Sa).

次に、水平走査回路411の出力ha1がHighレベルになることにより、水平転送スイッチ405、406がONされる。これにより、第1のS信号保持容量609、第1のN信号保持容量610の信号が水平出力線409、410と差動増幅器414とを介して出力端子415に出力される。水平走査回路411は、各列の選択信号ha1、ha2、・・・、hakを順次Highにすることにより、1行分の副画素aの信号(A像信号)を出力する。   Next, when the output ha1 of the horizontal scanning circuit 411 becomes High level, the horizontal transfer switches 405 and 406 are turned ON. Thus, the signals of the first S signal holding capacitor 609 and the first N signal holding capacitor 610 are output to the output terminal 415 via the horizontal output lines 409 and 410 and the differential amplifier 414. The horizontal scanning circuit 411 outputs the signal (A image signal) of the sub-pixel a for one row by sequentially setting the selection signals ha1, ha2,..., Hak of each column to High.

信号resはLowレベルのままで、信号selはHighレベルのままで、A像信号の読み出しを終了する。これにより、FD部503上のA像信号はリセットされず保持されることになる。   The signal res remains at the low level, the signal sel remains at the high level, and the reading of the A image signal ends. Thus, the A image signal on the FD section 503 is held without being reset.

A像信号の読み出しが終了すると、続けて図6(c)に示すA+B像信号の読み出し動作へと移る。信号tsbをHighレベルにして転送スイッチ607をONすると共に、信号txa及びtxbをHighレベルにすることで転送ゲート502aと502bとをONにする。このような動作により、副画素bのPD502bに蓄積されていた信号がFD部503に保持されていた副画素aの信号と加算され、加算された信号がFDアンプ504、画素選択スイッチ506を介して垂直出力線402へ出力される。これ以降の部分は、図6(a)を用いて説明した領域R2の動作と同じである。   When the reading of the A image signal is completed, the operation proceeds to the operation of reading the A + B image signal shown in FIG. The signal tsb is set to High level to turn on the transfer switch 607, and the signals txa and txb are set to High level to turn on the transfer gates 502a and 502b. By such an operation, the signal stored in the PD 502b of the sub-pixel b is added to the signal of the sub-pixel a held in the FD unit 503, and the added signal is transmitted via the FD amplifier 504 and the pixel selection switch 506. And output to the vertical output line 402. Subsequent portions are the same as the operation of the region R2 described with reference to FIG.

以上により、領域R1における各行の読み出し動作が終了する。これにより、領域R1では、A像信号の読み出しとA+B像信号の読み出しが行われ、A像信号とA+B像信号が順次読み出されることになる。   Thus, the reading operation of each row in the region R1 is completed. Thus, in the region R1, the reading of the A image signal and the reading of the A + B image signal are performed, and the A image signal and the A + B image signal are sequentially read.

<撮影動作>
次に、上述した構成を有する撮像装置100による画像撮影時の動作について説明する。
<Shooting operation>
Next, an operation of the image capturing apparatus 100 having the above-described configuration when capturing an image will be described.

まず、光学系1は、光学系駆動部2からの駆動信号により、絞りとレンズを駆動して、適正な明るさに設定された被写体像を撮像素子3の受光面に結像させる。撮像素子3は、信号読み出し制御部4からの駆動パルスにより駆動され、被写体像を光電変換により電気信号に変換して画像信号として出力する。   First, the optical system 1 drives a stop and a lens in response to a drive signal from the optical system driving unit 2 to form a subject image set to an appropriate brightness on the light receiving surface of the image sensor 3. The imaging element 3 is driven by a driving pulse from the signal readout control unit 4, converts a subject image into an electric signal by photoelectric conversion, and outputs the electric signal as an image signal.

信号読み出し制御部4は、コントラスト検出部5からのコントラスト評価値に応じた駆動パルスにより、上述した読み出し動作によって領域R1からA像信号の読み出しとA+B像信号の読み出しを行い、領域R2からA+B像信号の読み出しを行う。このようにA像信号を一部の領域で読み出すことで処理負荷を軽減している。さらに、AF制御部8は、A像信号を読み出した領域R1では、A+B像信号からA像信号を差し引くことでB像信号を取得し、A像信号とB像信号を用いてAF制御を行う。なお、領域R1からA像信号とB像信号を個別に読み出すと共に、領域R1以外の領域R2からA+B像信号を読み出すことでAF制御を行ってもよい。   The signal read control unit 4 reads the A image signal and the A + B image signal from the region R1 by the above-described read operation using the drive pulse corresponding to the contrast evaluation value from the contrast detection unit 5, and reads the A + B image signal from the region R2. The signal is read. As described above, the processing load is reduced by reading the A image signal in a partial area. Further, in the region R1 from which the A image signal has been read, the AF control unit 8 obtains the B image signal by subtracting the A image signal from the A + B image signal, and performs AF control using the A image signal and the B image signal. . Note that AF control may be performed by reading out the A image signal and the B image signal individually from the region R1 and reading out the A + B image signal from the region R2 other than the region R1.

コントラスト検出部5は撮像素子3からの画像信号に基づき、測距枠内のコントラスト評価値を算出し、信号読み出し制御部4へ出力する。この場合、コントラスト検出部5は、A像信号とB像信号を加算し、距離情報取得領域R1以外の領域R2から読み出したA+B像信号と同じ形式にしてからコントラスト評価値を算出する。   The contrast detection unit 5 calculates a contrast evaluation value in the distance measurement frame based on the image signal from the image sensor 3 and outputs the calculated contrast evaluation value to the signal readout control unit 4. In this case, the contrast detection unit 5 calculates the contrast evaluation value after adding the A image signal and the B image signal into the same format as the A + B image signal read from the area R2 other than the distance information acquisition area R1.

ここで、コントラストAFの概要について説明する。コントラストAF評価値算出部5は、A像信号から得られる第1焦点検出信号と、B像信号から得られる第2焦点検出信号を相対的に瞳分割方向にシフトさせ、加算してシフト加算信号を生成し、生成されたシフト加算信号からコントラスト評価値を算出する。   Here, the outline of the contrast AF will be described. The contrast AF evaluation value calculator 5 relatively shifts the first focus detection signal obtained from the A image signal and the second focus detection signal obtained from the B image signal in the pupil division direction, and adds and shifts the signal. Is generated, and a contrast evaluation value is calculated from the generated shift addition signal.

k番目の第1焦点検出信号をA(k)、第2焦点検出信号をB(k)、距離情報取得領域R1に対応する番号kの範囲をWとし、シフト処理によるシフト量をs1、シフト量s1のシフト範囲をτ1として、コントラスト評価値RFCONは、下記式により算出される。   The k-th first focus detection signal is A (k), the second focus detection signal is B (k), the range of the number k corresponding to the distance information acquisition region R1 is W, the shift amount by the shift process is s1, and the shift amount is s1. Assuming that the shift range of the amount s1 is τ1, the contrast evaluation value RFCON is calculated by the following equation.

Figure 0006678505
Figure 0006678505

シフト量s1のシフト処理により、k番目の第1焦点検出信号A(k)とk−s1番目の第2焦点検出信号B(k−s1)を対応させて加算してシフト加算信号が生成され、シフト加算信号からコントラスト評価値RFCON(s1)が算出される。   By the shift processing of the shift amount s1, the k-th first focus detection signal A (k) and the k-s1th second focus detection signal B (k-s1) are added in association with each other to generate a shift addition signal. , A contrast evaluation value RFCON (s1) is calculated from the shift addition signal.

測距部6は、信号読み出し制御部4により制御されるAF制御用の距離情報取得領域と被写体検出用の距離情報取得領域から読み出したA像信号、およびA+B像信号からA像信号を減算して得られるB像信号を用いて被写体の距離情報(第1の深さ情報、第2の深さ情報)を算出する。なお、本実施形態では、距離情報は(撮像面)位相差方式のAFを行うための位相差情報(デフォーカス量)である。   The distance measuring unit 6 subtracts the A image signal from the A image signal and the A + B image signal read from the AF control distance information acquisition area and the subject detection distance information acquisition area controlled by the signal read control unit 4. The distance information (first depth information, second depth information) of the subject is calculated using the B image signal obtained by the above. In the present embodiment, the distance information is phase difference information (defocus amount) for performing the AF of the (imaging plane) phase difference method.

ここで、位相差AFの概要について説明する。測距部6は、A像信号から得られる第1焦点検出信号(A像信号)と、B像信号から得られる第2焦点検出信号を相対的に瞳分割方向にシフトさせ、信号の一致度を表す相関量を算出する。k番目の第1焦点検出信号をA(k)、第2焦点検出信号をB(k)、距離情報取得領域R1に対応する番号kの範囲をWとし、シフト処理によるシフト量をs2、シフト量s2のシフト範囲をτ2として、相関量CORは、下記式により算出される。   Here, the outline of the phase difference AF will be described. The distance measuring unit 6 relatively shifts the first focus detection signal (A image signal) obtained from the A image signal and the second focus detection signal obtained from the B image signal in the pupil division direction, and matches the signal. Is calculated. The k-th first focus detection signal is A (k), the second focus detection signal is B (k), the range of the number k corresponding to the distance information acquisition region R1 is W, the shift amount by the shift process is s2, and the shift amount is s2. Assuming that the shift range of the amount s2 is τ2, the correlation amount COR is calculated by the following equation.

Figure 0006678505
Figure 0006678505

シフト量s2のシフト処理により、k番目の第1焦点検出信号A(k)とk−s2番目の第2焦点検出信号B(k−s2)を対応させ減算し、シフト減算信号を生成し、距離情報取得領域に対応する範囲W内で番号kの和をとり、相関量COR(s2)を算出する。そして、相関量から、サブピクセル演算により、相関量が最小値となる実数値のシフト量を算出して像ずれ量p1とする。像ずれ量p1に、焦点検出領域の像高と、撮像レンズ(結像光学系)のF値、射出瞳距離に応じた第1の変換係数K1をかけて、デフォーカス量を検出する。   By the shift processing of the shift amount s2, the k-th first focus detection signal A (k) and the k-s2nd second focus detection signal B (k-s2) are made to correspond to each other and subtracted to generate a shift subtraction signal. The sum of the numbers k is calculated within the range W corresponding to the distance information acquisition area, and the correlation amount COR (s2) is calculated. Then, from the correlation amount, a shift amount of a real value at which the correlation amount becomes a minimum value is calculated by a sub-pixel operation, and is set as an image shift amount p1. The defocus amount is detected by multiplying the image shift amount p1 by the image height of the focus detection area, the F value of the imaging lens (imaging optical system), and a first conversion coefficient K1 according to the exit pupil distance.

なお、本実施形態では、測距部6が、異なる視差のA像信号とB像信号から距離情報を算出する例を示すが、被写体検出用の情報としては、例えば、「距離」に換算されない「深さに対応する情報」としてもよい。「深さに対応する情報」は、例えば、「距離」に換算されるまでの過程で生成されるA像信号とB像信号の「視差量(像ずれ量)」の情報、「デフォーカス量」の情報、「被写体距離」の情報のうちのいずれの形態であってもよい。そして、本実施形態では、「深さに対応する情報」のうちの「被写体距離」を、被写体検出用として画面全体に分散させて取得する。なお、被写体検出用の「深さに対応する情報」は画像に関連付けて記録してもよい。   In the present embodiment, an example is shown in which the distance measurement unit 6 calculates distance information from the A image signal and the B image signal of different parallaxes. However, the information for subject detection is not converted into, for example, “distance”. "Information corresponding to depth" may be used. “Information corresponding to depth” includes, for example, information on “parallax amount (image shift amount)” of A image signal and B image signal generated in the process of being converted into “distance”, and “defocus amount”. ”Or“ subject distance ”. Then, in the present embodiment, the “subject distance” of the “information corresponding to the depth” is obtained by distributing it over the entire screen for subject detection. The “information corresponding to the depth” for subject detection may be recorded in association with the image.

本発明は、画像における被写体の深さに対応する情報としてさまざまな実施形態での適用が可能である。つまり、被写体の深さに対応するデータが示す情報(深さ情報)は、画像内における撮像装置から被写体までの被写体距離を直接的に表すか、または画像内の被写体の被写体距離や深さの相対関係を表す情報であればよい。   The present invention can be applied in various embodiments as information corresponding to the depth of a subject in an image. That is, the information (depth information) indicated by the data corresponding to the depth of the subject directly indicates the subject distance from the imaging device to the subject in the image, or the subject distance or the depth of the subject in the image. Any information representing the relative relationship may be used.

具体的には、撮像素子3は、光学系1の異なる瞳領域を通過する一対の光束が光学像としてそれぞれ結像したものを、対をなす画像信号として複数の光電変換部から出力することができる。対をなす画像信号間の相関演算によって各領域の像ずれ量が算出され、像ずれ量の分布を表す像ずれマップが算出される。あるいはさらに像ずれ量がデフォーカス量に換算され、デフォーカス量の分布(撮像画像の2次元平面上の分布)を表すデフォーカスマップが生成される。このデフォーカス量を光学系1や撮像素子3の条件に基づいて被写体距離に換算すると、被写体距離の分布を表す距離マップデータが得られる。   Specifically, the image pickup device 3 can output a pair of light fluxes passing through different pupil areas of the optical system 1 as optical images from a plurality of photoelectric conversion units as a pair of image signals. it can. An image shift amount of each area is calculated by a correlation operation between the paired image signals, and an image shift map representing a distribution of the image shift amount is calculated. Alternatively, the image shift amount is further converted to a defocus amount, and a defocus map representing the distribution of the defocus amount (distribution on the two-dimensional plane of the captured image) is generated. When this defocus amount is converted into a subject distance based on the conditions of the optical system 1 and the image sensor 3, distance map data representing the distribution of the subject distance is obtained.

このように、本実施形態では、測距部6は、像ずれマップデータ、デフォーカスマップデータ、あるいはデフォーカス量から変換される被写体距離の距離マップデータを取得すればよい。なお、各マップデータの各データはブロック単位で持っていてもよいし、画素単位で持っていてもよい。この場合、通常の画像データのように最小単位ごとに8ビット程度ビット数を割り当て、距離画像として画像処理や表示、記録などを画像処理と同様に行ってもよい。   As described above, in the present embodiment, the distance measuring unit 6 may acquire the image shift map data, the defocus map data, or the distance map data of the subject distance converted from the defocus amount. Each piece of map data may be held in block units or in pixel units. In this case, a bit number of about 8 bits may be assigned to each minimum unit like normal image data, and image processing, display, recording, etc. may be performed as a distance image in the same manner as image processing.

被写体追尾部7は、撮像素子3からの画像信号と測距部6からの距離情報とに基づいて被写体を検出し、検出された被写体から主被写体を特定し、その位置や大きさ(サイズ)に関する被写体情報を、AF制御部8に出力する。被写体追尾部7が特定の人物の顔を主被写体(主顔)として追尾する場合、画面のより中央に近い位置にある顔を主顔に設定し、主顔の動きベクトルや色、大きさから主顔の移動先を検出する。そして、被写体追尾部7は、主顔の距離情報及び主顔周辺の被写体の距離情報に基づいて主顔の追尾を行い、他の被写体と主顔とがすれ違った場合などに主顔の判別を行う。   The subject tracking unit 7 detects a subject based on an image signal from the image sensor 3 and distance information from the distance measurement unit 6, specifies a main subject from the detected subjects, and determines the position and size (size) of the main subject. The subject information about the subject is output to the AF control unit 8. When the subject tracking unit 7 tracks a specific person's face as the main subject (main face), the face located closer to the center of the screen is set as the main face, and the motion vector, color, and size of the main face are used. Detect the destination of the main face. Then, the subject tracking unit 7 performs tracking of the main face based on the distance information of the main face and the distance information of the subject around the main face, and determines the main face when another subject and the main face pass each other. Do.

AF制御部8は、コントラスト方式でAFを行う場合はコントラストAF評価値算出部5からのコントラスト評価値に基づき合焦位置(コントラスト評価値が最大となるピーク位置)を検出し、主被写体を合焦状態にするための光学系駆動情報を光学系駆動部2へ出力する。また、AF制御部8は、位相差方式でAFを行う場合は測距部6からの(相関量が最小となる像ずれ量やデフォーカス量に対応する)距離情報に基づき合焦位置を検出し、主被写体を合焦状態にするための光学系駆動情報を光学系駆動部2へ出力する。なお、AF制御部8は、位相差方式のAFを行って(測距部6からの距離情報を用いて)主被写体を合焦状態に近づけ、さらにコントラスト方式のAFを行って(コントラスト評価値を用いて)主被写体を合焦状態にするような制御を行ってもよい。すなわち、AF制御部8は、コントラストAF評価値算出部5からのコントラスト評価値と測距部6からの距離情報の少なくともいずれかを用いて主被写体を合焦状態にするような制御を行ってもよい。   When performing AF by the contrast method, the AF control unit 8 detects a focus position (a peak position where the contrast evaluation value is the maximum) based on the contrast evaluation value from the contrast AF evaluation value calculation unit 5 and focuses the main subject. The optical system driving unit 2 outputs optical system driving information for bringing the optical system into a focus state. When performing AF by the phase difference method, the AF control unit 8 detects the in-focus position based on distance information from the distance measuring unit 6 (corresponding to an image shift amount and a defocus amount at which the correlation amount is minimum). Then, optical system drive information for bringing the main subject into focus is output to the optical system drive unit 2. The AF control unit 8 performs the phase difference AF (using the distance information from the distance measuring unit 6) to bring the main subject closer to the in-focus state, and further performs the contrast AF (contrast evaluation value). May be controlled so that the main subject is in focus. That is, the AF control unit 8 performs control such that the main subject is brought into a focused state using at least one of the contrast evaluation value from the contrast AF evaluation value calculation unit 5 and the distance information from the distance measurement unit 6. Is also good.

信号処理部9は、撮像素子3からの画像信号を輝度信号と色差信号に変換した画像データを生成して記録部10や表示部11に出力する。記録部10及び表示部11は、信号処理部9により生成された画像データの記録・表示を行う。   The signal processing unit 9 generates image data obtained by converting an image signal from the image sensor 3 into a luminance signal and a color difference signal, and outputs the image data to the recording unit 10 and the display unit 11. The recording unit 10 and the display unit 11 record and display the image data generated by the signal processing unit 9.

<AF制御部及び信号読み出し制御部の動作>
次に、図7を参照して、撮影動作におけるAF制御時に、信号読み出し制御部4が、AF制御部8により制御され、撮像素子3を駆動して画像信号を読み出す場合の被写体検出用の距離情報取得領域の設定処理について説明する。
<Operation of AF control section and signal readout control section>
Next, referring to FIG. 7, at the time of AF control in the photographing operation, the signal readout control unit 4 is controlled by the AF control unit 8, and drives the image sensor 3 to read out an image signal. The setting process of the information acquisition area will be described.

S700では、信号読み出し制御部4は、コントラスト検出部5からコントラスト評価値を取得する。   In S700, the signal read control unit 4 acquires a contrast evaluation value from the contrast detection unit 5.

S701では、信号読み出し制御部4は、S700で取得したコントラスト評価値に基づいてAFの状態を判定する。信号読み出し制御部4は、閾値Th1、Th2(Th1<Th2)を用いて、コントラスト評価値が閾値Th1より小さい場合は大ボケと判定し、コントラスト評価値が閾値Th1より大きく、閾値Th2より小さい場合は中ボケと判定し、コントラスト評価値が閾値Th2より大きい場合は合焦と判定する。そして、AF状態が大ボケと判定された場合はS702へ、中ボケと判定された場合はS703へ、合焦と判定された場合はS703へ処理を進める。   In step S701, the signal readout control unit 4 determines the AF state based on the contrast evaluation value acquired in step S700. The signal readout control unit 4 uses the thresholds Th1 and Th2 (Th1 <Th2) to determine a large blur when the contrast evaluation value is smaller than the threshold Th1, and determines that the contrast evaluation value is larger than the threshold Th1 and smaller than the threshold Th2. Is determined to be a medium blur, and when the contrast evaluation value is larger than the threshold Th2, it is determined to be in focus. If the AF state is determined to be large, the process proceeds to step S702; if the AF state is determined, the process proceeds to step S703; if the AF state is determined to be in focus, the process proceeds to step S703.

ここで、前述したように被写体検出(主被写体追尾)用の距離情報取得領域は画面全体が俯瞰できるように設定される必要があるものの、その信号読み出し量は常に一定である必要はない。よって、被写体追尾部7では、被写体検出用の距離情報は、主被写体の判別ができないくらいコントラスト評価値が小さい場合には不要である。そこで、本実施形態では、コントラスト評価値から判定される合焦状態に応じて、大ボケ状態に近づくほど被写体検出用の距離情報取得領域の解像度を低くして信号読み出し量を少なくすることで、被写体検出(主被写体追尾)用の信号処理に係るシステム負荷や消費電力の低減を優先する。また、主被写体が判別できてくるような中ボケ状態の場合は、被写体検出が徐々に必要となってくるため、システム負荷や消費電力の低減と信号読み出し量とのバランスを取るように被写体検出用の距離情報取得領域の解像度を中くらいにする。また、被写体検出が可能な合焦状態の場合は、被写体検出用の距離情報取得領域の解像度を高くし、主被写体以外の被写体の距離情報も取得できるようにする。   Here, as described above, the distance information acquisition area for subject detection (main subject tracking) needs to be set so that the entire screen can be looked down on, but the signal readout amount does not need to be always constant. Therefore, the subject tracking unit 7 does not need the subject detection distance information when the contrast evaluation value is so small that the main subject cannot be determined. Therefore, in the present embodiment, according to the focus state determined from the contrast evaluation value, the resolution of the distance information acquisition area for subject detection is reduced as the closer to the large blur state, to reduce the signal readout amount. Priority is given to reduction of system load and power consumption related to signal processing for subject detection (main subject tracking). In addition, in the case of a middle-blur state in which the main subject can be determined, the subject detection is gradually required. Therefore, the subject detection is performed so as to balance the reduction in system load and power consumption with the signal readout amount. The resolution of the distance information acquisition area for the medium. Further, in the case of a focused state in which the subject can be detected, the resolution of the distance information acquisition region for subject detection is increased so that the distance information of a subject other than the main subject can be acquired.

ここで、図8を参照しながら、図7のS702〜S704における被写体検出用の距離情報取得領域の解像度を制御する処理について詳細に説明する。なお、図8の(a)、(b)、(c)において、(a−1)〜(a−4)、(b−1)〜(b−4)、(c−1)〜(c−4)は、撮像された画像信号に係る各フレームを時系列的に示したものである。また、図8の(a)、(b)、(c)において、800は主被写体、801は主被写体以外の被写体、802は被写体検出用の距離情報取得領域を例示している。また、図8において、(a)は大ボケ状態(S702)での領域設定例、(b)は中ボケ状態(S703)での領域設定例、(c)は合焦状態(S704)での領域設定例をそれぞれ例示している。   Here, the process of controlling the resolution of the distance information acquisition region for subject detection in S702 to S704 of FIG. 7 will be described in detail with reference to FIG. In FIGS. 8A, 8B, and 8C, (a-1) to (a-4), (b-1) to (b-4), and (c-1) to (c) -4) shows each frame related to a captured image signal in time series. 8A, 8B, and 8C, reference numeral 800 denotes a main subject, reference numeral 801 denotes a subject other than the main subject, and reference numeral 802 denotes a distance information acquisition region for subject detection. In FIG. 8, (a) shows an example of an area setting in the large blur state (S702), (b) shows an example of an area setting in the medium blur state (S703), and (c) shows an in-focus state (S704). Each of the area setting examples is illustrated.

S702の大ボケ状態の場合には、信号読み出し制御部4は、図8(a)のように被写体検出用の距離情報取得領域802の解像度が低くなるように領域設定を行う。この場合は、画面における被写体検出用の距離情報取得領域802は最も粗な状態となり、信号読み出し量が最も少なくなる。   In the case of the large blur state in S702, the signal readout control unit 4 sets an area so that the resolution of the distance information acquisition area 802 for subject detection becomes low as shown in FIG. In this case, the distance information acquisition area 802 for subject detection on the screen is in the coarsest state, and the signal readout amount is the smallest.

S703の中ボケ状態の場合には、信号読み出し制御部4は、図8(b)のように被写体検出用の距離情報取得領域802の解像度が中くらいになるように領域設定を行う。この場合は、画面における被写体検出用の距離情報取得領域802は粗と密の中間の状態となり、信号読み出し量が増加する。このようにして、図8(b)の中ボケ状態では、図8(a)の大ボケ状態に対して、被写体検出用の距離情報取得領域802から主被写体以外の被写体の距離情報も取得できる。   In the case of the middle-blur state in S703, the signal readout control unit 4 sets the area so that the resolution of the distance information acquisition area 802 for subject detection is medium as shown in FIG. In this case, the subject detection distance information acquisition area 802 on the screen is in an intermediate state between coarse and dense, and the amount of signal readout increases. In this way, in the middle-blur state of FIG. 8B, the distance information of the object other than the main object can be acquired from the distance information acquisition area 802 for subject detection in the large-blur state of FIG. 8A. .

S704は合焦状態なので、信号読み出し制御部4は、図8(c)のように被写体検出用の距離情報取得領域の解像度が高くなるように領域設定を行う。この場合は、画面における被写体検出用の距離情報取得領域802は最も密な状態となり、信号読み出し量が最も多くなる。図8(c)の合焦状態では、図8(b)の中ボケ状態と比べて被写体検出用の距離情報取得領域802から主被写体以外の被写体の距離情報をさらに高解像度で取得できる。   Since S704 is in the in-focus state, the signal readout control unit 4 sets the area so that the resolution of the distance information acquisition area for subject detection becomes high as shown in FIG. In this case, the distance information acquisition area 802 for subject detection on the screen is in the densest state, and the signal readout amount is the largest. In the in-focus state of FIG. 8C, the distance information of the object other than the main object can be acquired at a higher resolution from the object detection distance information acquisition area 802 than in the middle-blur state of FIG. 8B.

S705では、信号読み出し制御部4は、S702からS704で設定された距離情報取得領域の解像度に応じた制御情報を算出し、撮像素子3へ駆動パルスを出力する。   In step S705, the signal readout control unit 4 calculates control information corresponding to the resolution of the distance information acquisition area set in steps S702 to S704, and outputs a drive pulse to the image sensor 3.

S706では、信号読み出し制御部4は、AF制御部8から撮影終了が指示されるなどをトリガーとして、撮影動作が終了したか否かを判定し、終了と判定されるまでS700からの処理を繰り返す。   In step S706, the signal readout control unit 4 determines whether or not the photographing operation has been completed, triggered by an instruction to end the photographing from the AF control unit 8, and repeats the processing from S700 until it is determined that the photographing operation has been completed. .

本実施形態によれば、画像撮影中のAF制御時に、コントラスト評価値に基づいて被写体検出用の距離情報取得領域の粗密を制御することで、信号処理に係るシステム負荷や消費電力を抑えることができる。   According to the present embodiment, the system load and power consumption related to signal processing can be reduced by controlling the density of the distance information acquisition area for subject detection based on the contrast evaluation value during AF control during image capturing. it can.

[実施形態2]次に、実施形態2について説明する。   Second Embodiment Next, a second embodiment will be described.

実施形態1では、信号読み出し制御部4が、コントラスト検出部5からのコントラスト評価値に基づいて被写体検出用の距離情報取得領域の解像度を制御していた。これに対して、実施形態2では、信号読み出し制御部4が、被写体追尾部7からの被写体の数に基づいて被写体検出用の距離情報取得領域の解像度を制御する。   In the first embodiment, the signal readout control unit 4 controls the resolution of the subject detection distance information acquisition area based on the contrast evaluation value from the contrast detection unit 5. On the other hand, in the second embodiment, the signal readout control unit 4 controls the resolution of the distance information acquisition region for subject detection based on the number of subjects from the subject tracking unit 7.

なお、実施形態2において、実施形態1と同様の要素には同一の符号付して説明を省略する。   In the second embodiment, the same elements as those in the first embodiment are denoted by the same reference numerals, and the description is omitted.

図9は、実施形態2の撮像装置100の構成を示しており、実施形態1と異なる点は、被写体追尾部7が撮像素子3からの画像信号と測距部6からの距離情報とに基づき、撮像画像中の被写体の数を検出し、信号読み出し部4に出力する点と、信号読み出し部4が被写体追尾部7からの被写体の数に基づいて被写体検出用の距離情報取得領域の解像度を制御する点である。   FIG. 9 shows a configuration of an imaging apparatus 100 according to the second embodiment. The difference from the first embodiment is that the object tracking unit 7 uses the image signal from the image sensor 3 and the distance information from the distance measurement unit 6 to obtain information. The signal reading unit 4 detects the number of subjects in the captured image and outputs the detected information to the signal reading unit 4, and the signal reading unit 4 determines the resolution of the subject detection distance information acquisition area based on the number of subjects from the subject tracking unit 7. The point to control.

次に、図10を参照して、撮影動作におけるAF制御時に、信号読み出し制御部4が、AF制御部8により制御され、撮像素子3を駆動して画像信号を読み出す場合の被写体検出用の距離情報取得領域の設定処理について説明する。   Next, referring to FIG. 10, at the time of AF control in the photographing operation, the signal readout control unit 4 is controlled by the AF control unit 8, and the distance for subject detection when the image sensor 3 is driven to read out an image signal. The setting process of the information acquisition area will be described.

S1000では、信号読み出し制御部4は、被写体追尾部7から被写体の数を取得する。   In S1000, the signal readout control unit 4 acquires the number of subjects from the subject tracking unit 7.

S1001では、信号読み出し制御部4は、S1000で取得した被写体の数が多いか、少ないか、中くらいかを判定する。信号読み出し制御部4は、閾値Th3、Th4(Th3<Th4)を用いて、被写体の数が閾値Th3より小さい場合は少ないと判定し、被写体の数が閾値Th3より大きく、閾値Th4より小さい場合は中くらいと判定し、被写体の数が閾値Th4より大きい場合は多いと判定する。そして、被写体の数が少ないと判定された場合はS1002へ、中くらいと判定された場合はS1003へ、多いと判定された場合はS1004へ処理を進める。   In S1001, the signal read control unit 4 determines whether the number of subjects acquired in S1000 is large, small, or medium. The signal readout control unit 4 uses the thresholds Th3 and Th4 (Th3 <Th4) to determine that the number of subjects is small when the number of subjects is smaller than the threshold Th3, and determines that the number of subjects is larger than the threshold Th3 and smaller than the threshold Th4. It is determined to be medium, and when the number of subjects is larger than the threshold Th4, it is determined to be large. When it is determined that the number of subjects is small, the process proceeds to S1002, when it is determined that the number is medium, the process proceeds to S1003, and when it is determined that the number is large, the process proceeds to S1004.

本実施形態において被写体の数を判定条件としているのは、被写体の数が多いほど、主被写体の前をそれ以外の被写体がすれ違う可能性が高くなるため、距離情報を用いた主被写体の判別が必要となる可能性が高くなるからである。   In the present embodiment, the number of subjects is used as a criterion because the greater the number of subjects, the higher the possibility that other subjects pass by in front of the main subject. This is because the possibility of necessity increases.

S1002では、信号読み出し制御部4は、被写体の数が多い場合には、図8(c)と同様に、被写体検出用の距離情報取得領域の解像度が高くなるように領域設定を行う。   In step S1002, when the number of subjects is large, the signal readout control unit 4 performs area setting such that the resolution of the distance information acquisition area for subject detection becomes high, as in FIG. 8C.

S1003では、信号読み出し制御部4は、被写体の数が中くらいの場合には、図8(b)と同様に、被写体検出用の距離情報取得領域802の解像度が中くらいになるように領域設定を行う。   In S1003, when the number of subjects is medium, the signal readout control unit 4 sets the region so that the resolution of the distance information acquisition region 802 for subject detection is medium, as in FIG. I do.

S1004では、信号読み出し制御部4は、被写体の数が少ない場合には、図8(a)と同様に、被写体検出用の距離情報取得領域802の解像度が低くなるように領域設定を行う。   In S1004, when the number of subjects is small, the signal readout control unit 4 performs area setting such that the resolution of the distance information acquisition area 802 for subject detection is low, as in FIG. 8A.

S1005では、信号読み出し制御部4は、S1002からS1004で設定された距離情報取得領域の解像度に応じた制御情報を算出し、撮像素子3へ駆動パルスを出力する。   In S1005, the signal read control unit 4 calculates control information corresponding to the resolution of the distance information acquisition area set in S1002 to S1004, and outputs a drive pulse to the image sensor 3.

S1006では、信号読み出し制御部4は、AF制御部8から撮影終了が指示されるなどをトリガーとして、撮影動作が終了したか否かを判定し、終了と判定されるまでS1000からの処理を繰り返す。   In step S <b> 1006, the signal readout control unit 4 determines whether or not the shooting operation has been completed, triggered by an instruction to end the shooting from the AF control unit 8, and repeats the processing from S <b> 1000 until it is determined that the shooting operation has been completed. .

本実施形態によれば、画像撮影中のAF制御時に、被写体の数に基づいて被写体検出用の距離情報取得領域の粗密を制御することで、信号処理に係るシステム負荷や消費電力を抑えることができる。   According to the present embodiment, the system load and power consumption related to signal processing can be reduced by controlling the density of the distance information acquisition region for subject detection based on the number of subjects during AF control during image capturing. it can.

なお、上述した実施形態では、被写体検出用の距離情報取得領域を被写体の数に基づいて設定したが、被写体の動きベクトルを検出し、主被写体の前をそれ以外の被写体がすれ違う可能性が高いと判定した場合には距離情報取得領域の解像を高くし、すれ違う可能性が低いと判定した場合には低くしてもよい。 In the above-described embodiment, the distance information acquisition region for subject detection is set based on the number of subjects. However, the motion vector of the subject is detected, and there is a high possibility that other subjects pass by in front of the main subject. and to increase the resolution of the distance information acquisition region when it is determined, it may be lower when it is determined that there is a low possibility that pass each other.

[他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

1…光学系、2…光学系駆動部、3…撮像素子、4…信号読み出し制御部、5…コントラスト検出部、6…測距部、7…被写体追尾部、8…AF制御部、9…信号処理部、10…記録部、11…表示部、12…操作部、13…システム制御部 DESCRIPTION OF SYMBOLS 1 ... Optical system, 2 ... Optical system drive part, 3 ... Image sensor, 4 ... Signal readout control part, 5 ... Contrast detection part, 6 ... Distance measurement part, 7 ... Subject tracking part, 8 ... AF control part, 9 ... Signal processing unit, 10 recording unit, 11 display unit, 12 operation unit, 13 system control unit

Claims (9)

複数のマイクロレンズを有し、当該複数のマイクロレンズそれぞれに複数の光電変換部が割り当てられて、当該複数の光電変換部ごとに1つの画素をなす撮像素子と、
前記撮像素子の光電変換部から順次信号を読み出し、前記撮像素子の各画素における複数の光電変換部からの信号に対応する複数画素からなる画像信号を複数フレーム出力させる読み出し手段と、
主被写体に対応する領域を示す情報と、該主被写体の合焦状態を示す情報とを取得する取得手段と、
前記読み出し手段により前記撮像素子から視差が異なる信号を読み出す領域を設定する設定手段と、を有し、
前記設定手段は、各フレームにおける前記視差が異なる信号を読み出す領域を、前記視差が異なる信号を読み出す領域が包含する画角を略同等に維持しつつ、
前記取得手段により取得する前記主被写体の合焦状態が第1の状態であるときに、前記第1の状態よりも合焦に遠い第2の状態であるときよりも高い解像度で前記視差が異なる信号を読み出す領域を設定することを特徴とする撮像装置。
An image sensor having a plurality of microlenses, a plurality of photoelectric conversion units assigned to each of the plurality of microlenses, and one pixel for each of the plurality of photoelectric conversion units;
Reading means for the image signal composed of a plurality of pixels is a plurality of frames output corresponding to the signals from the plurality of photoelectric conversion units in each pixel of the to read out sequentially signals from the photoelectric conversion portion of the imaging element, the imaging element,
Acquisition means for acquiring information indicating an area corresponding to the main subject and information indicating an in-focus state of the main subject,
Setting means for setting an area from which a signal having a different parallax is read from the image sensor by the reading means ,
The setting unit is configured to read out the signal from which the disparity is different in each frame, while maintaining substantially the same angle of view included in the area from which the signal is read out from the disparity.
When the focus state of the main subject acquired by the acquisition unit is the first state, the parallax differs at a higher resolution than when the focus state is the second state farther from the first state. An imaging device, wherein an area from which a signal is read is set .
複数のマイクロレンズを有し、当該複数のマイクロレンズそれぞれに複数の光電変換部が割り当てられて、当該複数の光電変換部ごとに1つの画素をなす撮像素子と、
前記撮像素子の光電変換部から順次信号を読み出し、前記撮像素子の各画素における複数の光電変換部からの信号に対応する複数画素からなる画像信号を複数フレーム出力させる読み出し手段と、
前記画像信号に基づいて前記画像信号における被写体の数を検出する検出手段と、
前記読み出し手段により前記撮像素子から視差が異なる信号を読み出す領域を設定する設定手段と、を有し、
前記設定手段は、各フレームにおける前記視差が異なる信号を読み出す領域を、前記視差が異なる信号を読み出す領域が包含する画角を略同等に維持しつつ、
前記検出手段により検出される被写体の数が第1の数であるときに、前記第1の数より少ない第2の数であるときよりも高い解像度で前記視差が異なる信号を読み出す領域を設定することを特徴とする撮像装置。
An image sensor having a plurality of microlenses, a plurality of photoelectric conversion units assigned to each of the plurality of microlenses, and one pixel for each of the plurality of photoelectric conversion units;
Reading means for the image signal composed of a plurality of pixels is a plurality of frames output corresponding to the signals from the plurality of photoelectric conversion units in each pixel of the to read out sequentially signals from the photoelectric conversion portion of the imaging element, the imaging element,
Detecting means for detecting the number of subjects in the image signal based on the image signal;
Setting means for setting an area from which a signal having a different parallax is read from the image sensor by the reading means ,
The setting means, while maintaining a region for reading the signal having the different parallax in each frame, a view angle included in the region for reading the signal having the different parallax is substantially equal,
When the number of subjects detected by the detection means is a first number, an area for reading out the signal having the different parallax with a higher resolution than when the number of subjects detected is a second number smaller than the first number is set. An imaging device characterized by the above-mentioned.
前記設定手段により設定された前記視差が異なる信号を読み出す領域から読み出された信号を用いて深さ情報を算出する算出手段を有することを特徴とする請求項1または2に記載の撮像装置。3. The imaging apparatus according to claim 1, further comprising a calculation unit configured to calculate depth information using a signal read from an area from which the signal having the different parallax set by the setting unit is read. 4. 前記設定手段により設定された前記視差が異なる信号を読み出す領域から読み出された信号を用いて深さ情報を算出する算出手段を有し、The calculating means for calculating depth information using a signal read from a region from which a signal from which the disparity set by the setting means reads a different signal,
前記取得手段は、前記深さ情報に基づいて得られた被写体の合焦状態を示す情報を取得することを特徴とする請求項1に記載の撮像装置。  The imaging apparatus according to claim 1, wherein the obtaining unit obtains information indicating a focus state of a subject obtained based on the depth information.
前記設定手段により設定された前記視差が異なる信号を読み出す領域から読み出された信号を用いて深さ情報を算出する算出手段を有し、The calculating means for calculating depth information using a signal read from a region from which a signal from which the disparity set by the setting means reads a different signal,
前記検出手段は、前記深さ情報に基づいて被写体の位置と大きさと数を検出することを特徴とする請求項2に記載の撮像装置。  The imaging apparatus according to claim 2, wherein the detection unit detects a position, a size, and a number of the subject based on the depth information.
複数のマイクロレンズを有し、当該複数のマイクロレンズそれぞれに複数の光電変換部が割り当てられて、当該複数の光電変換部ごとに1つの画素をなす撮像素子と、
前記撮像素子の光電変換部から順次信号を読み出し、前記撮像素子の各画素における複数の光電変換部からの信号に対応する複数画素からなる画像信号を複数フレーム出力させる読み出し手段と、を有する撮像装置の制御方法であって、
主被写体に対応する領域を示す情報と、該主被写体の合焦状態を示す情報とを取得する取得工程と、
前記読み出し手段により前記撮像素子から視差が異なる信号を読み出す領域を設定する設定工程と、を有し、
前記設定工程では、各フレームにおける前記視差が異なる信号を読み出す領域を、前記視差が異なる信号を読み出す領域が包含する画角を略同等に維持しつつ、
前記取得工程により取得する前記主被写体の合焦状態が第1の状態であるときに、前記第1の状態よりも合焦に遠い第2の状態であるときよりも高い解像度で前記視差が異なる信号を読み出す領域を設定することを特徴とする撮像装置の制御方法。
An image sensor having a plurality of microlenses, a plurality of photoelectric conversion units assigned to each of the plurality of microlenses, and one pixel for each of the plurality of photoelectric conversion units;
To read out sequentially signals from the photoelectric conversion unit of the image pickup element, and a readout means for a plurality of frames and outputs an image signal composed of a plurality of pixels corresponding to the signal from the plurality of photoelectric conversion units in each pixel of the image sensor A method for controlling an imaging device having
An acquisition step of acquiring information indicating an area corresponding to the main subject and information indicating a focus state of the main subject,
A setting step of setting a region from which a signal having a different parallax is read from the image sensor by the reading unit,
In the setting step, the area for reading the signal with the different parallax in each frame, while maintaining substantially the same angle of view included in the area for reading the signal with the different parallax,
When the focus state of the main subject acquired in the acquisition step is the first state, the parallax is different at a higher resolution than in the second state farther from the first state. A method for controlling an imaging device, comprising setting an area from which a signal is read .
複数のマイクロレンズを有し、当該複数のマイクロレンズそれぞれに複数の光電変換部が割り当てられて、当該複数の光電変換部ごとに1つの画素をなす撮像素子と、
前記撮像素子の光電変換部から順次信号を読み出し、前記撮像素子の各画素における複数の光電変換部からの信号に対応する複数画素からなる画像信号を複数フレーム出力させる読み出し手段と、を有する撮像装置の制御方法であって、
前記画像信号に基づいて前記画像信号における被写体の数を検出する検出工程と、
前記読み出し手段により前記撮像素子から視差が異なる信号を読み出す領域を設定する設定工程と、を有し、
前記設定工程では、各フレームにおける前記視差が異なる信号を読み出す領域を、前記視差が異なる信号を読み出す領域が包含する画角を略同等に維持しつつ、
前記検出工程により検出される被写体の数が第1の数であるときに、前記第1の数より少ない第2の数であるときよりも高い解像度で前記視差が異なる信号を読み出す領域を設定することを特徴とする撮像装置の制御方法。
An image sensor having a plurality of microlenses, a plurality of photoelectric conversion units assigned to each of the plurality of microlenses, and one pixel for each of the plurality of photoelectric conversion units;
To read out sequentially signals from the photoelectric conversion unit of the image pickup element, and a readout means for a plurality of frames and outputs an image signal composed of a plurality of pixels corresponding to the signal from the plurality of photoelectric conversion units in each pixel of the image sensor A method for controlling an imaging device having
A detecting step of detecting the number of subjects in the image signal based on the image signal;
A setting step of setting a region from which a signal having a different parallax is read from the image sensor by the reading unit,
In the setting step, the area for reading the signal with the different parallax in each frame, while maintaining substantially the same angle of view included in the area for reading the signal with the different parallax,
When the number of subjects detected in the detection step is the first number, an area for reading out the signal having the different parallax with a higher resolution than when the number of the subjects detected is the second number smaller than the first number is set. A method for controlling an imaging device, comprising:
請求項またはに記載された制御方法を、撮像装置のコンピュータに実行させるためのプログラム。 The The control method according to claim 6 or 7, a program to be executed by a computer of an imaging device. 請求項またはに記載された制御方法を、撮像装置のコンピュータに実行させるためのプログラムを記憶したコンピュータによる読み取りが可能な記憶媒体。 The The control method according to claim 6 or 7, read a storage medium according to the stored computer program to be executed by a computer of an imaging device.
JP2016086576A 2016-04-22 2016-04-22 Imaging device, control method therefor, program, and storage medium Active JP6678505B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016086576A JP6678505B2 (en) 2016-04-22 2016-04-22 Imaging device, control method therefor, program, and storage medium
US15/486,851 US10205870B2 (en) 2016-04-22 2017-04-13 Image capturing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016086576A JP6678505B2 (en) 2016-04-22 2016-04-22 Imaging device, control method therefor, program, and storage medium

Publications (3)

Publication Number Publication Date
JP2017194656A JP2017194656A (en) 2017-10-26
JP2017194656A5 JP2017194656A5 (en) 2019-05-30
JP6678505B2 true JP6678505B2 (en) 2020-04-08

Family

ID=60090455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016086576A Active JP6678505B2 (en) 2016-04-22 2016-04-22 Imaging device, control method therefor, program, and storage medium

Country Status (2)

Country Link
US (1) US10205870B2 (en)
JP (1) JP6678505B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020158102A1 (en) 2019-01-30 2020-08-06 富士フイルム株式会社 Facial region detection device, image-capturing device, facial region detection method, and facial region detection program
KR20220140925A (en) 2021-04-09 2022-10-19 삼성전자주식회사 Image sensor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4835270B2 (en) 2006-06-03 2011-12-14 株式会社ニコン Solid-state imaging device and imaging apparatus using the same
JP5478935B2 (en) * 2009-05-12 2014-04-23 キヤノン株式会社 Imaging device
JP5778931B2 (en) 2011-01-25 2015-09-16 キヤノン株式会社 Imaging apparatus and control method thereof
JP6214271B2 (en) 2012-09-12 2017-10-18 キヤノン株式会社 Distance detection device, imaging device, distance detection method, program, and recording medium

Also Published As

Publication number Publication date
US20170310877A1 (en) 2017-10-26
JP2017194656A (en) 2017-10-26
US10205870B2 (en) 2019-02-12

Similar Documents

Publication Publication Date Title
JP5468177B2 (en) Imaging apparatus and focus control method thereof
CN109314742B (en) Method, apparatus, device and storage medium for iris simulation
JP6765860B2 (en) Image sensor, image sensor, and image signal processing method
JP6678504B2 (en) Imaging device, control method therefor, program, and storage medium
JP5946421B2 (en) Imaging apparatus and control method thereof
US9338346B2 (en) Focus detection apparatus, control method therefor, and image capture apparatus
US20140071318A1 (en) Imaging apparatus
JP6351231B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US10033951B2 (en) Image sensor that performs different readout operations and image capturing apparatus including image sensor
KR20150064604A (en) Photographing apparatus and method
JP2015018205A (en) Focus detection unit, method therefor, and image capturing device
JP2016001807A (en) Image processing system, imaging apparatus with the same, image processing method, and image processing program
JP2013235054A (en) Focus detection device and image capturing device
KR20170067634A (en) Image capturing apparatus and method for controlling a focus detection
JP6381274B2 (en) Imaging device, control method thereof, and control program
US10225494B2 (en) Image capturing apparatus and control method thereof
JPWO2014041845A1 (en) Imaging apparatus and signal processing method
US10182186B2 (en) Image capturing apparatus and control method thereof
US9883096B2 (en) Focus detection apparatus and control method thereof
JP6678505B2 (en) Imaging device, control method therefor, program, and storage medium
US9736354B2 (en) Control apparatus, image pickup apparatus, control method, and storage medium
JP2017216649A (en) Imaging device, imaging apparatus and imaging signal processing method
JP6594048B2 (en) Imaging apparatus and control method thereof
US20180020150A1 (en) Control apparatus, image capturing apparatus, control method, and storage medium
BR102015009321B1 (en) IMAGE CAPTURE DEVICE AND METHOD FOR CONTROLING THE SAME

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190417

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200317

R151 Written notification of patent or utility model registration

Ref document number: 6678505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151