WO2019134536A1 - 基于神经网络模型的人脸活体检测 - Google Patents
基于神经网络模型的人脸活体检测 Download PDFInfo
- Publication number
- WO2019134536A1 WO2019134536A1 PCT/CN2018/122550 CN2018122550W WO2019134536A1 WO 2019134536 A1 WO2019134536 A1 WO 2019134536A1 CN 2018122550 W CN2018122550 W CN 2018122550W WO 2019134536 A1 WO2019134536 A1 WO 2019134536A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- target
- face
- sample
- component data
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/58—Extraction of image or video features relating to hyperspectral data
Definitions
- the target image array generating unit is specifically configured to: respectively use the various types of monochrome component data of the first face image and the monochrome component data of the second face image as one
- the data of the dimension constitutes the multi-dimensional array of target images of the target object.
- RGB red
- G green
- B blue
- RGB red
- RGB red
- G green
- B blue
- Y means brightness (Luminance or Luma)
- U color
- V Chrominance or Chroma
- HIS color space it is based on the human visual system, and the color is described by Hue, Saturation or Chroma, and Intensity or Brightness.
- the face region is not recognized from the target infrared image
- the target object is a display screen displaying a human face
- the face region can be recognized from the target visible light image, but from the target infrared image The face area is not recognized.
- the face region cannot be recognized from the visible light image or the infrared image of the sample, it may be determined that the sample may be inactive or the sample may be acquired incorrectly. If the sample is non-living, the visible light image or the infrared image that does not recognize the face region can be directly used as the corresponding face image, and then the subsequent processing steps are performed.
- the target image array generating unit 330 is configured to generate a target image array of the target object based on the various types of monochrome component data of the first facial image and the monochrome component data of the second facial image;
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
Abstract
一种基于神经网络模型的人脸活体检测方法、装置及电子设备。该方法包括,获得关于待检测目标对象的目标可见光图像和目标红外图像(S101),从该目标可见光图像中提取第一人脸图像,以及从该目标红外图像中提取第二人脸图像(S102),基于该第一人脸图像的各类单色分量数据和该第二人脸图像的单色分量数据,生成该目标对象的目标图像数组(S103),将该目标图像数组输入至预先训练完成的神经网络模型中进行检测,得到该目标对象的人脸活体检测结果(S104)。
Description
相关申请的交叉引用
本专利申请要求于2018年01月04日提交的、申请号为201810007468.1、发明名称为“基于神经网络模型的人脸活体检测方法、装置及电子设备”的中国专利申请的优先权,该申请的全文以引用的方式并入本文中。
本申请涉及人脸识别技术领域,特别涉及基于神经网络模型的人脸活体检测。
随着生物特征识别技术的快速发展,人脸识别、指纹识别、虹膜识别技术等在身份验证中扮演着重要的角色,其中,人脸识别技术是相对方便、相对适合人们习惯的一种识别技术,得到广泛地应用。
人脸识别技术作为当今有效的身份认证方法,其应用范围已经扩展到:作息考勤、安全防护、海关检查、刑侦破案、银行系统等等领域。而随着应用范围的扩大,一些问题也随之发生,如不法分子在人脸认证过程中欺骗系统以达到仿冒用户的人脸特征的目的。具体的,人脸认证过程中的欺骗形式主要有:窃取用户的照片进行欺骗,用公众场合、网络上录制的视频进行欺骗等等。为了更安全地进行身份认证和检测身份来源的真实性,检测被识别的对象是否是活体显得尤为重要。
发明内容
有鉴于此,本申请提供了一种基于神经网络模型的人脸活体检测方法、装置及电子设备,以快速、有效检测目标对象是否为人脸活体。
具体地,本申请是通过如下技术方案实现的。
第一方面,本申请提供了一种基于神经网络模型的人脸活体检测方法,包括:获得关于待检测目标对象的目标可见光图像和目标红外图像;从所述目标可见光图像中提取仅包含人脸部分的第一人脸图像,以及从所述目标红外图像中提取仅包含人脸部分的第二人脸图像;基于所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据,生成所述目标对象的目标图像数组;将所述目标图像数组输入至预先训练完成 的神经网络模型中进行检测,得到所述目标对象的人脸活体检测结果。
可选地,所述神经网络模型的训练方式包括:获得关于多个样本的可见光图像和红外图像,其中,每个所述样本的样本类型包括正样本和负样本,所述正样本为活体对象,所述负样本为非活体对象;针对每个所述样本,从所述样本的可见光图像中提取仅包含人脸部分的第一样本图像;从所述样本的红外图像中提取仅包含人脸部分的第二样本图像;基于所述第一样本图像的各类单色分量数据和所述第二样本图像的单色分量数据,生成所述样本的目标图像数组;基于各个所述样本的目标图像数组和各个所述样本的所述样本类型训练预先初始化的神经网络模型。
可选地,基于所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据,生成所述目标对象的目标图像数组,包括:将所述第一人脸图像的所述各类单色分量数据和所述第二人脸图像的所述单色分量数据分别作为一个维度的数据,构成所述目标对象的多维度的所述目标图像数组。
可选地,基于所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据,生成所述目标对象的目标图像数组包括:将所述第一人脸图像的所述各类单色分量数据和所述第二人脸图像的所述单色分量数据联合进行降维处理,得到一幅目标灰度图;以所述目标灰度图所对应的一维的数据,构成所述目标对象的一维的所述目标图像数组。
可选地,基于所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据,生成所述目标对象的目标图像数组包括:对所述第一人脸图像和所述第二人脸图像进行图像预处理;基于图像预处理后的所述第一人脸图像的各类单色分量数据和图像预处理后的所述第二人脸图像的单色分量数据,确定所述目标对象的所述目标图像数组。
第二方面,本申请提供了一种基于神经网络模型的人脸活体检测装置,包括:图像获得单元,用于获得关于待检测目标对象的目标可见光图像和目标红外图像;人脸图像提取单元,用于从所述目标可见光图像中提取仅包含人脸部分的第一人脸图像,以及从所述目标红外图像中提取仅包含人脸部分的第二人脸图像;目标图像数组生成单元,用于基于所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据,生成所述目标对象的目标图像数组;确定单元,用于将所述目标图像数组输入至预先训练完成的神经网络模型中进行检测,得到所述目标对象的人脸活体检测结果。
可选地,所述神经网络模型由模型训练单元训练所得,所述模型训练单元用于:获得关于多个样本的可见光图像和红外图像,其中,每个所述样本的样本类型包括正样本和负样本,所述正样本为活体对象,所述负样本为非活体对象;针对每个所述样本,从所述样本的可见光图像中提取仅包含人脸部分的第一样本图像;从所述样本的红外图像中提取仅包含人脸部分的第二样本图像;基于所述第一样本图像的各类单色分量数据和所述第二样本图像的单色分量数据,生成所述样本的目标图像数组;基于各个所述样本的所述目标图像数组和各个所述样本的所述样本类型训练预先初始化的神经网络模型。
可选地,所述目标图像数组生成单元具体用于:将所述第一人脸图像的所述各类单色分量数据和所述第二人脸图像的所述单色分量数据分别作为一个维度的数据,构成所述目标对象的多维度的所述目标图像数组。
可选地,所述目标图像数组生成单元具体用于:将所述第一人脸图像的所述各类单色分量数据和所述第二人脸图像的所述单色分量数据联合进行降维处理,得到一幅目标灰度图;以所述目标灰度图所对应的一维的数据,构成所述目标对象的一维的所述目标图像数组。
可选地,所述目标图像数组生成单元具体用于:对所述第一人脸图像和所述第二人脸图像进行图像预处理;基于图像预处理后的所述第一人脸图像的各类单色分量数据和图像预处理后的所述第二人脸图像的单色分量数据,确定所述目标对象的所述目标图像数组。
第三方面,本申请还提供了一种电子设备,包括:内部总线、存储器、处理器和通信接口;其中,所述处理器、所述通信接口、所述存储器通过所述内部总线完成相互间的通信;所述存储器,用于存储基于神经网络模型的人脸活体检测方法对应的机器可行指令;所述处理器,用于读取所述存储器上的所述机器可读指令,并执行所述指令以实现本申请第一方面所提供的基于神经网络模型的人脸活体检测方法。
本申请所提供方案中,基于对多光谱的分析,采用可见光波段和红外波段下的图像来全面表征目标对象;并且,基于真人人脸对光波段的反射的统计特性,从可见光波段所对应可见光图像和红外波段所对应红外图像中提取多波段的人脸图像,进而采用神经网络模型来分析所提取的人脸图像,以确定目标对象是否为人脸活体。因此,本方案可以快速、有效检测目标对象是否为人脸活体。
图1是本申请所提供的一种基于神经网络模型的人脸活体检测方法的流程图;
图2是本申请所提供的神经网络模型的训练过程的流程图;
图3是本申请所提供的一种基于神经网络模型的人脸活体检测装置的结构示意图;
图4是本申请所提供的一种电子设备结构示意图。
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
本申请提供了一种基于神经网络模型的人脸活体检测方法、装置及电子设备,以快速、有效检测目标对象是否为活体。
下面首先对本申请所提供的一种基于神经网络模型的人脸活体检测方法进行介绍。
需要说明的是,本申请所提供的一种基于神经网络模型的人脸活体检测方法可以应用于电子设备。在具体应用中,该电子设备可以为具有采集可见光图像和红外图像功能的摄像头、考勤机等设备,或者,该电子设备可以为与具有采集可见光图像和红外图像功能的设备相通信的设备,如服务器、个人计算机等等。
并且,考虑到多光谱的相关原理,即不同物体在同一光波段下成像效果不同、同一 物体在不同光波段下成像效果亦不尽相同,本申请采用了可见光波段(380nm-780nm)所对应的可见光图像和红外光波段(780nm-1100nm)所对应的红外图像,以全面表征一个目标对象的图像信息。
另外,真人人脸皮肤对任一光波段的反射具有显著且稳定的统计特性,使得真人人脸图像的单色分量数据对应的灰度图中灰度值分布具有均匀性和连续性等特点,即灰度值不存在剧烈的变化;而照片等假人脸的灰度图恰恰相反。因此,本申请以人脸图像的图像特征来区分真假人脸。
需要强调的是,从红外光波段所对应的红外图像中提取的人脸图像,受外部光照影响小,特征稳定,人脸瞳孔等信息明显,因此,可以采用红外波段下的红外图像用于人脸活体检测。在具体应用中,红外图像的采集波段可以为850nm、940nm等波段。并且,红外光波段下的图像可由图像传感器直接以256阶的8位灰度图形式存储。
如图1所示,本申请所提供的一种基于神经网络模型的人脸活体检测方法,可以包括如下步骤。
S101,获得关于待检测目标对象的目标可见光图像和目标红外图像。
当需要检测目标对象是否为活体时,该电子设备可以获得关于待检测目标对象的目标可见光图像和目标红外图像,进而执行后续的人脸提取过程。
需要说明的是,该目标对象的目标可见光图像和目标红外图像为该目标对象在同一时刻的两类图像。并且,在保证采集到同一时刻的目标可见光图像和目标红外图像的前提下,可以通过一个设备来采集到两类图像,例如:该设备可以为双目摄像头,该双目摄像头中的一个镜头可以设有滤光片,以使得与该镜头对应的图像传感器仅仅感应到红外波段;当然,也可以通过两个设备来采集该两类图像,例如:可见光图像采集设备和专门的红外图像采集设备。
目标可见光图像可以由CCD(Charge-coupled Device,电荷耦合元件)、CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)或其他成像传感器采集得到。并且,本申请中所获得的目标可见光图像对应的颜色空间可以为RGB、YUV或HIS等,为了保证检测有效性,在可见光图像与后续所提及的神经网络模型的训练样本的颜色空间不同时,可以将目标可见光图像进行颜色空间转换,然后利用转换后的目标可见光图像执行后续的步骤。其中,对于RGB颜色空间而言,其通过对红(R)、绿(G)、蓝(B)三个颜色通道的变化以及它们相互之间的叠加来得到各式各样的颜色的, RGB即是代表红、绿、蓝三个通道的颜色;对于YUV颜色空间而言,“Y”表示明亮度(Luminance或Luma),“U”和“V”则是色度(Chrominance或Chroma);对于HIS颜色空间而言,其是从人的视觉系统出发,用色调(Hue)、色饱和度(Saturation或Chroma)和亮度(Intensity或Brightness)来描述颜色。
S102,从该目标可见光图像中提取第一人脸图像,以及从该目标红外图像中提取第二人脸图像。其中,该第一人脸图像和该第二人脸图像均为仅包含人脸部分的图像。
在获得目标可见光图像和目标红外图像后,由于真人人脸皮肤对任一光波段的反射具有显著且稳定的统计特性,因此,可以仅仅对目标可见光图像和目标红外图像中的人脸部分进行分析。
其中,从该目标可见光图像中提取第一人脸图像的过程可以包括:对该目标可见光图像进行人脸识别,得到人脸区域,并提取人脸区域,得到第一人脸图像。类似的,从该目标红外图像中提取第二人脸图像的过程可以包括:对该目标红外图像进行人脸识别,得到人脸区域,并提取人脸区域,得到第二人脸图像。其中,可以采用本领域熟知的任一人脸识别算法来对该目标可见光图像和该目标红外图像进行人脸识别,本申请在此不做限定。
如果在目标可见光图像和目标红外图像均识别到人脸区域,可以认为目标对象可能是活体也可能是非活体,需要在后续步骤中进行目标对象的活体检测。但是,如果从目标可见光图像中未识别到人脸区域,或者从目标红外图像中未识别到人脸区域,则可以认定该目标对象有可能是非活体,也有可能目标对象获取有误。因此,在具体应用中,当从目标可见光图像或目标红外图像中无法识别到人脸区域时,可以直接判定目标对象为非人脸活体,并结束流程。或者,当从目标可见光图像或目标红外图像中无法识别到人脸区域时,也可以回到步骤S101,重新获取目标对象的目标可见光图像和目标红外图像。
对于从目标红外图像中无法识别到人脸区域的情况,举例而言:对于目标对象是显示有人脸的显示屏的情况,从目标可见光图像中可以识别到人脸区域,但是从目标红外图像中无法识别到人脸区域。
S103,基于该第一人脸图像的各类单色分量数据和该第二人脸图像的单色分量数据,生成该目标对象的目标图像数组。
在获得第一人脸图像和第二人脸图像后,可以基于该第一人脸图像的各类单色分量 数据和该第二人脸图像的单色分量数据,确定该目标对象对应的目标图像数组。任一单色分量数据均为w*h的矩阵。其中,w为宽度上的像素点数量,h为高度上的像素点数量。可以理解的是,第一人脸图像的各类单色分量数据的类型与所对应的颜色空间有关。例如:对于第一人脸图像的颜色空间为RGB而言,各类单色分量数据为R分量、G分量和B分量;而对于第一人脸图像的颜色空间为YUV而言,各类单色分量数据为Y分量、U分量和V分量,等等。
可选地,在一种具体实现方式中,基于该第一人脸图像的各类单色分量数据和该第二人脸图像的单色分量数据,生成该目标对象的目标图像数组的步骤,可以包括:将该第一人脸图像的各类单色分量数据和该第二人脸图像的单色分量数据分别作为一个维度的数据,构成该目标对象的多维度的目标图像数组。
在该种具体实现方式中,目标图像数组的一个维度对应一类单色分量数据,即目标图像数组为四维的数组。举例而言:对于第一人脸图像对应的颜色空间为RGB而言,该目标图像数组为[红外分量,R分量,G分量,B分量],而对于第一人脸图像对应的颜色空间为YUV而言,该目标图像数组为[红外分量,Y分量,U分量,V分量],等等。
可选地,在另一种具体实现方式中,基于该第一人脸图像的各类单色分量数据和该第二人脸图像的单色分量数据,生成该目标对象的目标图像数组的步骤,可以包括:将该第一人脸图像的各类单色分量数据和该第二人脸图像的单色分量数据联合进行降维处理,得到一幅目标灰度图;并且,以该目标灰度图所对应的一维的数据,构成该目标对象的一维的目标图像数组。
其中,所谓降维处理为:将多维的单色分量数据融合为一幅灰度图。具体的降维处理方式包括但不局限于:将各类单色分量数据中同一像素点的分量数据进行加权平均处理,这样每个像素点对应一个结果值,从而得到一幅灰度图。
需要强调的是,由于在具体应用中图像采集设备所采集图像通常会存在噪声干扰,且不同场景下所采集图像可能有着截然不同的成像特性,如分辨率、尺寸大小等,这些均对检测过程存在一定的影响。因此,为了消除这些影响,可以对图像进行预处理。
基于该种处理思想,所述基于该第一人脸图像的各类单色分量数据和该第二人脸图像的单色分量数据,生成该目标对象的目标图像数组的步骤,可以包括:对该第一人脸图像和该第二人脸图像进行图像预处理;基于图像预处理后的第一人脸图像的各类单色分量数据和图像预处理后的第二人脸图像的单色分量数据,确定该目标对象的目标图像 数组。
其中,该图像预处理可以包括去噪、直方图均衡化和尺寸归一化中的至少一种,当然并不局限于此。并且,可以理解的是,在人脸活体检测过程中的图像预处理可以与对神经网络模型的训练样本执行的图像预处理的方式相同,以保证检测的有效性。另外,关于去噪、直方图均衡化和尺寸归一化的具体实现方式均属于本领域技术人员熟知的技术,在此不做限定。
需要强调的是,所述基于该第一人脸图像的各类单色分量数据和该第二人脸图像的单色分量数据,生成该目标对象的目标图像数组的步骤的具体实现方式,仅仅作为示例,并不应该构成对本申请的限定。
S104,将该目标图像数组输入至预先训练完成的神经网络模型中进行检测,得到该目标对象的人脸活体检测结果。
在得到目标对象的目标图像数组后,可以将该目标图像数组输入至预先训练完成的神经网络模型中进行检测,得到该目标对象对应的人脸活体检测结果,其中,人脸活体检测结果可以包括:人脸活体或非人脸活体。
可以理解的是,通过神经网络模型学习人脸活体和非人脸活体的图像特征,进而,在学习完成后,可以利用神经网络模型来识别目标对象是否为人脸活体。其中,神经网络模型的种类和具体层级结构可以根据实际情况进行设定,本申请不做限定。其中,在具体应用中,神经网络模型可以为CNN(Convolutional Neural Network,卷积神经网络)、RNN(Recurrent Neural Networks,循环神经网络)、DNN(Deep Neural Network,深度神经网络),等等。
具体的,如图2所示,所述神经网络模型的训练过程包括:
S201,获得关于多个样本各自的可见光图像和红外图像。
其中,各个样本的样本类型包括正样本和负样本。该正样本为活体对象,该负样本为非活体对象。
其中,训练神经网络模型所利用的样本对应的采集环境可以涉及多种,如室内、室外、强背景光等不同光照条件的环境,这样后续可以适用于多种采集环境下的目标对象的检测。
并且,非活体样本可以包括照片或视频等类型,其中,照片可以包括黑白照片和彩 色照片,而视频的载体可以手机、平板电脑等显示设备。
另外,样本的可见光图像和红外图像为该样本在同一时刻的两类图像。并且,在保证采集到样本的同一时刻的可见光图像和红外图像的前提下,可以通过一个设备来采集到两类图像,当然,也可以通过两个设备来采集该两类图像。
S202,针对每个样本,从关于该样本的可见光图像中提取该样本的第一样本图像,以及从关于该样本的红外图像中提取该样本的第二样本图像。
其中,该第一样本图像和该第二样本图像均为仅包含人脸部分的图像。
其中,从样本的可见光图像中提取第一样本图像的过程可以包括:对样本的可见光图像进行人脸检测,得到人脸区域,并提取人脸区域,得到第一样本图像。类似的,从样本的红外图像中提取第二样本图像的过程可以包括:对样本的红外图像进行人脸检测,得到人脸区域,并提取人脸区域,得到第二样本图像。其中,可以采用本领域技术人员熟知的任一人脸检测算法来对样本的可见光图像和红外图像进行人脸检测,本申请在此不做限定。
可以理解的是,当从样本的可见光图像或红外图像中无法识别到人脸区域时,则可以认定该样本有可能是非活体,也有可能是样本获取有误。如果该样本是非活体,则可以将未识别到人脸区域的可见光图像或红外图像直接作为相应的人脸图像,进而执行后续的处理步骤。
S203,针对每个样本,基于该样本的第一样本图像对应的各类单色分量数据和该样本的第二样本图像对应的单色分量数据,生成该样本的目标图像数组。
在获得样本的第一样本图像和第二样本图像后,可以基于该样本的第一样本图像对应的各类单色分量数据和该样本的第二样本图像对应的单色分量数据,确定该样本的目标图像数组。其中,任一单色分量数据均为w*h的矩阵,其中,w为宽度上的像素点数量,h为高度上的像素点数量。
可选地,在一种具体实现方式中,基于该样本的第一样本图像对应的各类单色分量数据和该样本的第二样本图像对应的单色分量数据,生成该样本的目标图像数组的步骤,可以包括:将该样本所对应的第一样本图像的各类单色分量数据和第二样本图像的单色分量数据分别作为一个维度的数据,构成该样本对应的多维度的目标图像数组。
可选地,在另一种具体实现方式中,基于该样本的第一样本图像对应的各类单色分量数据和该样本的第二样本图像对应的单色分量数据,生成该样本的目标图像数组的步 骤,可以包括:将该样本对应的第一样本图像的各类单色分量数据和第二样本图像的单色分量数据联合进行降维处理,得到一幅目标灰度图;以该样本的目标灰度图所对应的一维的数据,构成该样本的一维的目标图像数组。
可以理解的是,为了保证检测有效性,训练用样本的目标图像数组的确定方式与目标对象的目标图像数组的确定方式相同。
另外,在确定样本的目标图像数组之前,也可以对该样本的第一样本图像和第二样本图像进行图像预处理,然后根据图像预处理后的第一样本图像和第二样本图像确定该样本的目标图像数组。其中,图像预处理可以包括去噪、直方图均衡化和尺寸归一化中的至少一种,当然并不局限于此。
S204,基于各个样本的目标图像数组和各个样本的样本类型训练预先初始化的神经网络模型。
在获得各个样本的目标图像数组后,可以基于各个样本的目标图像数组和各个样本所属的样本类型训练预先初始化的神经网络模型,直至神经网络模型学习到各个样本的目标图像数组与样本类型的关系为止。其中,基于各个样本的目标图像数组和各个样本所属的样本类型训练预先初始化的神经网络模型的具体实现方式可以参见本领域技术人员熟知的利用样本数据训练神经网络模型的任一具体实现方式,在此不作赘述。
本申请所提供方案中,基于对多光谱的分析,采用可见光波段和红外波段下的图像来全面表征目标对象;并且,基于真人人脸对光波段的反射的统计特性,从可见光波段所对应可见光图像和红外波段所对应红外图像中提取人脸图像,进而采用神经网络模型来分析所提取的多波段的人脸图像,以确定目标对象是否为人脸活体。因此,本方案可以快速、有效检测目标对象是否为人脸活体。
相应于上述方法实施例,本申请还提供了一种基于神经网络模型的人脸活体检测装置,如图3所示,该装置可以包括:
图像获得单元310,用于获得关于待检测目标对象的目标可见光图像和目标红外图像。
人脸图像提取单元320,用于从所述目标可见光图像中提取仅包含人脸部分的第一人脸图像,以及从所述目标红外图像中提取仅包含人脸部分的第二人脸图像。
目标图像数组生成单元330,用于基于所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据,生成所述目标对象的目标图像数组;
确定单元340,用于将所述目标图像数组输入至预先训练完成的神经网络模型中进行检测,得到所述目标对象的人脸活体检测结果。
本申请所提供方案中,基于对多光谱的分析,采用可见光波段和红外波段下的图像来全面表征目标对象;并且,基于真人人脸对光波段的反射的统计特性,从可见光波段所对应可见光图像和红外波段所对应红外图像中提取人脸图像,进而采用神经网络模型来分析所提取的多波段的人脸图像,以确定目标对象是否为人脸活体。因此,本方案可以快速、有效检测目标对象是否为人脸活体。
可选地,所述神经网络模型由模型训练单元进行训练所得,所述模型训练单元具体用于:获得多个样本各自的可见光图像和红外图像,其中,每个所述样本的样本类型包括正样本和负样本,所述正样本为活体对象,所述负样本为非活体对象;针对每个所述样本,从该样本的可见光图像中提取该样本的第一样本图像,以及从该样本的红外图像中提取该样本的第二样本图像,其中,所述第一样本图像和所述第二样本图像均为仅包含人脸部分的图像;针对每个所述样本,基于所述该样本的第一样本图像的各类单色分量数据和所述第二样本图像的单色分量数据,生成所述该样本的目标图像数组;基于所述各个样本的目标图像数组和各个样本的样本类型训练预先初始化的神经网络模型。
可选地,在一种具体实现方式中,所述目标图像数组生成单元330具体用于:将所述第一人脸图像的所述各类单色分量数据和所述第二人脸图像的所述单色分量数据分别作为一个维度的数据,构成所述目标对象的多维度的所述目标图像数组。
可选地,在另一种具体实现方式中,所述目标图像数组生成单元330具体用于:将所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据联合进行降维处理,得到一幅目标灰度图;以所述目标灰度图所对应的一维的数据,构成所述目标对象的一维的所述目标图像数组。
可选地,所述目标图像数组生成单元330具体用于:对所述第一人脸图像和所述第二人脸图像进行图像预处理;基于图像预处理后的第一人脸图像的各类单色分量数据和图像预处理后的第二人脸图像的单色分量数据,确定所述目标对象的目标图像数组。
相应于上述方法实施例,本申请实施例还提供了一种电子设备;如图4所示,所述电子设备包括:内部总线410、存储器(Memory)420、处理器(Processor)430和通信接口(Communications Interface)440;其中,所述处理器430、所述通信接口440、所述存储器420通过所述内部总线410完成相互间的通信。
其中,所述存储器420,用于存储基于神经网络模型的人脸活体检测方法对应的机器可行指令。
所述处理器430,用于读取所述存储器420上的所述机器可读指令,并执行所述指令以实现本申请所提供的一种基于神经网络模型的人脸活体检测方法。其中,一种基于神经网络模型的人脸活体检测方法,可以包括:获得关于待检测目标对象的目标可见光图像和目标红外图像;从所述目标可见光图像中提取仅包含人脸部分的第一人脸图像,以及从所述目标红外图像中提取仅包含人脸部分的第二人脸图像;基于所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据,生成所述目标对象的目标图像数组;将所述目标图像数组输入至预先训练完成的神经网络模型中进行检测,得到所述目标对象的人脸活体检测结果。
本实施例中,关于人脸活体检测方法的具体步骤的相关描述可以参见本申请所提供方法实施例中的描述内容,在此不做赘述。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
Claims (11)
- 一种基于神经网络模型的人脸活体检测方法,包括:获得关于待检测目标对象的目标可见光图像和目标红外图像;从所述目标可见光图像中提取仅包含人脸部分的第一人脸图像;从所述目标红外图像中提取仅包含人脸部分的第二人脸图像;基于所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据,生成所述目标对象的目标图像数组;将所述目标图像数组输入至预先训练完成的神经网络模型中进行检测,得到所述目标对象的人脸活体检测结果。
- 根据权利要求1所述的方法,其特征在于,所述神经网络模型的训练方式包括:获得关于多个样本的可见光图像和红外图像,其中,每个所述样本的样本类型包括正样本和负样本,所述正样本为活体对象,所述负样本为非活体对象;针对每个所述样本,从所述样本的可见光图像中提取仅包含人脸部分的第一样本图像;从所述样本的红外图像中提取仅包含人脸部分的第二样本图像;基于所述第一样本图像的各类单色分量数据和所述第二样本图像的单色分量数据,生成所述样本的目标图像数组;基于各个所述样本的目标图像数组和各个所述样本的所述样本类型训练预先初始化的神经网络模型。
- 根据权利要求1或2所述的方法,其特征在于,基于所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据,生成所述目标对象的目标图像数组包括:将所述第一人脸图像的所述各类单色分量数据和所述第二人脸图像的所述单色分量数据分别作为一个维度的数据,构成所述目标对象的多维度的所述目标图像数组。
- 根据权利要求1或2所述的方法,其特征在于,基于所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据,生成所述目标对象的目标图像数组包括:将所述第一人脸图像的所述各类单色分量数据和所述第二人脸图像的所述单色分量数据联合进行降维处理,得到一幅目标灰度图;以所述目标灰度图所对应的一维的数据,构成所述目标对象的一维的所述目标图像数组。
- 根据权利要求1或2所述的方法,其特征在于,基于所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据,生成所述目标对象的目标图像数组包括:对所述第一人脸图像和所述第二人脸图像进行图像预处理;基于图像预处理后的所述第一人脸图像的各类单色分量数据和图像预处理后的所述第二人脸图像的单色分量数据,确定所述目标对象的所述目标图像数组。
- 一种基于神经网络模型的人脸活体检测装置,包括:图像获得单元,用于获得关于待检测目标对象的目标可见光图像和目标红外图像;人脸图像提取单元,用于从所述目标可见光图像中提取仅包含人脸部分的第一人脸图像,以及从所述目标红外图像中提取仅包含人脸部分的第二人脸图像;目标图像数组生成单元,用于基于所述第一人脸图像的各类单色分量数据和所述第二人脸图像的单色分量数据,生成所述目标对象的目标图像数组;确定单元,用于将所述目标图像数组输入至预先训练完成的神经网络模型中进行检测,得到所述目标对象的人脸活体检测结果。
- 根据权利要求6所述的装置,其特征在于,所述神经网络模型由模型训练单元训练所得,所述模型训练单元具体用于:获得关于多个样本的可见光图像和红外图像,其中,每个所述样本的样本类型包括正样本和负样本,所述正样本为活体对象,所述负样本为非活体对象;针对每个所述样本,从所述样本的可见光图像中提取仅包含人脸部分的第一样本图像;从所述样本的红外图像中提取仅包含人脸部分的第二样本图像;基于所述第一样本图像的各类单色分量数据和所述第二样本图像的单色分量数据,生成所述样本的目标图像数组;基于各个所述样本的所述目标图像数组和各个所述样本的所述样本类型训练预先初始化的神经网络模型。
- 根据权利要求6或7所述的装置,其特征在于,所述目标图像数组生成单元具体用于:将所述第一人脸图像的所述各类单色分量数据和所述第二人脸图像的所述单色分量数据分别作为一个维度的数据,构成所述目标对象的多维度的所述目标图像数组。
- 根据权利要求6或7所述的装置,其特征在于,所述目标图像数组生成单元具体用于:将所述第一人脸图像的所述各类单色分量数据和所述第二人脸图像的所述单色分量数据联合进行降维处理,得到一幅目标灰度图;以所述目标灰度图所对应的一维的数据,构成所述目标对象的一维的所述目标图像数组。
- 根据权利要求6或7所述的装置,其特征在于,所述目标图像数组生成单元具体用于:对所述第一人脸图像和所述第二人脸图像进行图像预处理;基于图像预处理后的所述第一人脸图像的各类单色分量数据和图像预处理后的所述第二人脸图像的单色分量数据,确定所述目标对象的所述目标图像数组。
- 一种电子设备,包括:内部总线、存储器、处理器和通信接口;其中,所述处理器、所述通信接口、所述存储器通过所述内部总线完成相互间的通信;所述存储器,用于存储基于神经网络模型的人脸活体检测方法对应的机器可读指令;所述处理器,用于读取所述存储器上的所述机器可读指令,并执行所述指令以实现权利要求1-5任一项所述的基于神经网络模型的人脸活体检测方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18898093.2A EP3719694A4 (en) | 2018-01-04 | 2018-12-21 | LIVE BODY DETECTION OF THE HUMAN FACE ON THE BASIS OF A NEURAL NETWORK |
US16/959,419 US11321963B2 (en) | 2018-01-04 | 2018-12-21 | Face liveness detection based on neural network model |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810007468.1 | 2018-01-04 | ||
CN201810007468.1A CN110008783A (zh) | 2018-01-04 | 2018-01-04 | 基于神经网络模型的人脸活体检测方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019134536A1 true WO2019134536A1 (zh) | 2019-07-11 |
Family
ID=67143832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2018/122550 WO2019134536A1 (zh) | 2018-01-04 | 2018-12-21 | 基于神经网络模型的人脸活体检测 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11321963B2 (zh) |
EP (1) | EP3719694A4 (zh) |
CN (1) | CN110008783A (zh) |
WO (1) | WO2019134536A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114445898A (zh) * | 2022-01-29 | 2022-05-06 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、设备、存储介质及程序产品 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110414445B (zh) * | 2019-07-31 | 2022-03-25 | 联想(北京)有限公司 | 用于人脸识别的光源调节方法、装置及电子设备 |
CN110472599B (zh) * | 2019-08-20 | 2021-09-03 | 北京海益同展信息科技有限公司 | 对象数量确定方法、装置、存储介质与电子设备 |
IL277564A (en) * | 2019-09-23 | 2021-05-31 | Sensority Ltd | Live skin tissue tracking on video |
CN112861588B (zh) * | 2019-11-28 | 2024-03-08 | 杭州萤石软件有限公司 | 一种活体检测的方法、装置 |
CN111079576B (zh) * | 2019-11-30 | 2023-07-28 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、设备及存储介质 |
CN111191521B (zh) * | 2019-12-11 | 2022-08-12 | 智慧眼科技股份有限公司 | 人脸活体检测方法、装置、计算机设备及存储介质 |
CN111104917A (zh) * | 2019-12-24 | 2020-05-05 | 杭州魔点科技有限公司 | 基于人脸的活体检测方法、装置、电子设备及介质 |
CN111126265A (zh) * | 2019-12-24 | 2020-05-08 | 杭州魔点科技有限公司 | 活体检测方法、装置、电子设备及介质 |
CN111126366B (zh) * | 2020-04-01 | 2020-06-30 | 湖南极点智能科技有限公司 | 一种活体人脸的判别方法、装置、设备及存储介质 |
JP7463186B2 (ja) * | 2020-05-26 | 2024-04-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN111767868B (zh) * | 2020-06-30 | 2024-06-11 | 创新奇智(北京)科技有限公司 | 人脸检测方法、装置、电子设备及存储介质 |
CN111881815A (zh) * | 2020-07-23 | 2020-11-03 | 高新兴科技集团股份有限公司 | 一种多模型特征迁移的人脸活体检测方法 |
CN112052759B (zh) * | 2020-08-25 | 2022-09-09 | 腾讯科技(深圳)有限公司 | 一种活体检测方法和装置 |
CN112307902A (zh) * | 2020-09-29 | 2021-02-02 | 深圳市捷顺科技实业股份有限公司 | 一种打印照片的人脸防伪方法及其装置 |
US11769313B2 (en) | 2021-05-21 | 2023-09-26 | Ford Global Technologies, Llc | Counterfeit image detection |
US11967184B2 (en) * | 2021-05-21 | 2024-04-23 | Ford Global Technologies, Llc | Counterfeit image detection |
US11636700B2 (en) | 2021-05-21 | 2023-04-25 | Ford Global Technologies, Llc | Camera identification |
CN113378715B (zh) * | 2021-06-10 | 2024-01-05 | 北京华捷艾米科技有限公司 | 一种基于彩色人脸图像的活体检测方法及相关设备 |
CN113724250B (zh) * | 2021-09-26 | 2024-11-01 | 新希望六和股份有限公司 | 一种基于双光相机的动物目标计数方法 |
CN114202806A (zh) * | 2021-11-26 | 2022-03-18 | 北京百度网讯科技有限公司 | 活体检测方法、装置、电子设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105260731A (zh) * | 2015-11-25 | 2016-01-20 | 商汤集团有限公司 | 一种基于光脉冲的人脸活体检测系统及方法 |
CN105518711A (zh) * | 2015-06-29 | 2016-04-20 | 北京旷视科技有限公司 | 活体检测方法、活体检测系统以及计算机程序产品 |
CN106203305A (zh) * | 2016-06-30 | 2016-12-07 | 北京旷视科技有限公司 | 人脸活体检测方法和装置 |
CN106778607A (zh) * | 2016-12-15 | 2017-05-31 | 国政通科技股份有限公司 | 一种基于人脸识别的人与身份证同一性认证装置及方法 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101964056B (zh) * | 2010-10-26 | 2012-06-27 | 徐勇 | 一种具有活体检测功能的双模态人脸认证方法和系统 |
CN102542281B (zh) * | 2010-12-27 | 2017-02-22 | 北京北科慧识科技股份有限公司 | 非接触式生物特征识别方法和系统 |
US8548207B2 (en) * | 2011-08-15 | 2013-10-01 | Daon Holdings Limited | Method of host-directed illumination and system for conducting host-directed illumination |
CN102708383B (zh) * | 2012-05-21 | 2014-11-26 | 广州像素数据技术开发有限公司 | 一种多模态比对功能的活体人脸检测系统与方法 |
CN105654028A (zh) * | 2015-09-29 | 2016-06-08 | 厦门中控生物识别信息技术有限公司 | 一种真假人脸识别方法及装置 |
CN105513221B (zh) * | 2015-12-30 | 2018-08-14 | 四川川大智胜软件股份有限公司 | 一种基于三维人脸识别的atm机防欺诈装置及系统 |
CN105956572A (zh) | 2016-05-15 | 2016-09-21 | 北京工业大学 | 一种基于卷积神经网络的活体人脸检测方法 |
CN107451510B (zh) * | 2016-05-30 | 2023-07-21 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
CN106203373B (zh) | 2016-07-19 | 2019-04-16 | 中山大学 | 一种基于深度视觉词袋模型的人脸活体检测方法 |
CN106372601B (zh) | 2016-08-31 | 2020-12-22 | 上海依图信息技术有限公司 | 一种基于红外可见双目图像的活体检测方法及装置 |
EP3534328B1 (en) * | 2016-10-31 | 2024-10-02 | Nec Corporation | Image processing device, image processing method, facial recogntion system, program, and recording medium |
CN107066942A (zh) | 2017-03-03 | 2017-08-18 | 上海斐讯数据通信技术有限公司 | 一种活体人脸识别方法及系统 |
WO2018175603A1 (en) * | 2017-03-21 | 2018-09-27 | Sri International | Robust biometric access control using physiological-informed multi-signal correlation |
CN106803301A (zh) * | 2017-03-28 | 2017-06-06 | 广东工业大学 | 一种基于深度学习的人脸识别门禁方法及系统 |
CN107122744B (zh) | 2017-04-28 | 2020-11-10 | 武汉神目信息技术有限公司 | 一种基于人脸识别的活体检测系统及方法 |
CN107590430A (zh) * | 2017-07-26 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 活体检测方法、装置、设备及存储介质 |
US10679443B2 (en) * | 2017-10-13 | 2020-06-09 | Alcatraz AI, Inc. | System and method for controlling access to a building with facial recognition |
US11023757B2 (en) * | 2018-02-14 | 2021-06-01 | Samsung Electronics Co., Ltd. | Method and apparatus with liveness verification |
CN108764052B (zh) * | 2018-04-28 | 2020-09-11 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN108875338A (zh) * | 2018-05-04 | 2018-11-23 | 北京旷视科技有限公司 | 解锁方法、装置和系统及存储介质 |
US10930010B2 (en) * | 2018-05-10 | 2021-02-23 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting living body, system, electronic device, and storage medium |
KR20210069404A (ko) * | 2019-12-03 | 2021-06-11 | 삼성전자주식회사 | 라이브니스 검사 방법 및 라이브니스 검사 장치 |
US11475714B2 (en) * | 2020-02-19 | 2022-10-18 | Motorola Solutions, Inc. | Systems and methods for detecting liveness in captured image data |
-
2018
- 2018-01-04 CN CN201810007468.1A patent/CN110008783A/zh active Pending
- 2018-12-21 EP EP18898093.2A patent/EP3719694A4/en active Pending
- 2018-12-21 WO PCT/CN2018/122550 patent/WO2019134536A1/zh unknown
- 2018-12-21 US US16/959,419 patent/US11321963B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105518711A (zh) * | 2015-06-29 | 2016-04-20 | 北京旷视科技有限公司 | 活体检测方法、活体检测系统以及计算机程序产品 |
CN105260731A (zh) * | 2015-11-25 | 2016-01-20 | 商汤集团有限公司 | 一种基于光脉冲的人脸活体检测系统及方法 |
CN106203305A (zh) * | 2016-06-30 | 2016-12-07 | 北京旷视科技有限公司 | 人脸活体检测方法和装置 |
CN106778607A (zh) * | 2016-12-15 | 2017-05-31 | 国政通科技股份有限公司 | 一种基于人脸识别的人与身份证同一性认证装置及方法 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3719694A4 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114445898A (zh) * | 2022-01-29 | 2022-05-06 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、设备、存储介质及程序产品 |
CN114445898B (zh) * | 2022-01-29 | 2023-08-29 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、设备、存储介质及程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN110008783A (zh) | 2019-07-12 |
EP3719694A4 (en) | 2021-01-27 |
US20200334450A1 (en) | 2020-10-22 |
US11321963B2 (en) | 2022-05-03 |
EP3719694A1 (en) | 2020-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019134536A1 (zh) | 基于神经网络模型的人脸活体检测 | |
WO2019137178A1 (zh) | 人脸活体检测 | |
US12062251B2 (en) | Device and method with image matching | |
Boulkenafet et al. | On the generalization of color texture-based face anti-spoofing | |
Patel et al. | Secure face unlock: Spoof detection on smartphones | |
US9652663B2 (en) | Using facial data for device authentication or subject identification | |
Deb et al. | Look locally infer globally: A generalizable face anti-spoofing approach | |
JP2015528942A (ja) | 顔検証のためのシステムおよび方法 | |
CN111191521B (zh) | 人脸活体检测方法、装置、计算机设备及存储介质 | |
US11315360B2 (en) | Live facial recognition system and method | |
Daniel et al. | Texture and quality analysis for face spoofing detection | |
Hadiprakoso et al. | Face anti-spoofing using CNN classifier & face liveness detection | |
CN114387548A (zh) | 视频及活体检测方法、系统、设备、存储介质及程序产品 | |
Aishwarya et al. | Palm print recognition using liveness detection technique | |
Song et al. | Face liveness detection based on joint analysis of rgb and near-infrared image of faces | |
KR20130111021A (ko) | 영상처리장치 및 영상처리방법 | |
Song et al. | Face liveliness detection based on texture and color features | |
He et al. | Face Spoofing Detection Based on Combining Different Color Space Models | |
CN111914750A (zh) | 去除高亮特征和方向梯度直方图的面部活体检测方法 | |
Abaza et al. | Human ear detection in the thermal infrared spectrum | |
Benlamoudi | Multi-modal and anti-spoofing person identification | |
CN108875472B (zh) | 图像采集装置及基于该图像采集装置的人脸身份验证方法 | |
Nourmohammadi-Khiarak et al. | An ear anti-spoofing database with various attacks | |
Huang et al. | Dual fusion paired environmental background and face region for face anti-spoofing | |
US8538142B2 (en) | Face-detection processing methods, image processing devices, and articles of manufacture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18898093 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2018898093 Country of ref document: EP Effective date: 20200630 |