人脸对比
人脸对比,顾名思义,就是对比两个人脸的相似度。本文将用Paddle实现这一功能。
PS:作者肝了整整3天才稍微搞明白实现方法
数据集准备
这里使用百度AI Studio的开源数据集:
人脸数据_数据集-飞桨AI Studio星河社区 (baidu.com)
这个数据集提供了500个人的人脸各100张,比较适合我们的项目。
根据这个数据集,很容易写出数据集类,文件名为face_dataset.py:
import numpy as np
from PIL import Image
import paddle
from random import shuffleclass FaceData(paddle.io.Dataset):def __init__(self, mode, num):super().__init__()# 训练集/测试集file = 'facecap/train_list.txt' if mode == 'train' else 'facecap/test_list.txt'self.imgs1 = []self.imgs2 = []self.labels = []# 控制相同人脸个数与不同人脸个数各占一半_1_count = 0with open(file) as f:# 读取数据集文件信息数据并洗牌lines = f.readlines()shuffle(lines)lines = lines[:num]print('read down')# 加载数据集for line1 in lines:line1 = line1.strip()img1, label1 = line1.split(' ')pil_img1 = Image.open(f'facecap\\{img1}').convert('RGB').resize((96, 96))for line2 in lines:line2 = line2.strip()img2, label2 = line2.split(' ')if label1 == label2:_1_count += 1pil_img2 = Image.open(f'facecap\\{img2}').convert('RGB').resize((96, 96))self.imgs1.append(np.array(pil_img1).transpose((2, 0, 1)) / 255.0)self.imgs2.append(np.array(pil_img2).transpose((2, 0, 1)) / 255.0)self.labels.append(1)elif _1_count > 0:_1_count -= 1pil_img2 = Image.open(f'facecap\\{img2}').convert('RGB').resize((96, 96))self.imgs1.append(np.array(pil_img1).transpose((2, 0, 1)) / 255.0)self.imgs2.append(np.array(pil_img2).transpose((2, 0, 1)) / 255.0)self.labels.append(0)self.imgs1 = np.array(self.imgs1, dtype=np.float32)self.imgs2 = np.array(self.imgs2, dtype=np.float32)self.labels = np.array(self.labels, dtype=np.float32)print('load down')def __getitem__(self, idx):return self.imgs1[idx], self.imgs2[idx], self.labels[idx]def __len__(self):return len(self.labels)
需要注意的是,PIL的图片维度与paddle CNN的维度不一样,需要使用transpose改变
当然,使用这个数据集类读取数据是非常漫长的,因此我们创建了一个face_create_dataset.py,创建数据集对象并保存到本地:
from face_dataset import FaceData
import pickletrain_dataset = FaceData(mode='train', num=2000)
test_dataset = FaceData(mode='test', num=200)pickle.dump(train_dataset, open('./database/train.data', 'wb'), protocol=4)
pickle.dump(test_dataset, open('./database/test.data', 'wb'), protocol=4)
这里我们使用pickle保存对象,注意这里要指定protocol=4,以保证可以存储超过4G的大文件
最后,这个脚本会在本地的database文件夹下生成两个data文件,使用时只需要加载即可
孪生网络
既然要输入两张图片,就自然需要使用两张卷积网络,分别处理两张图片。但是人脸对比与输入顺序无关,这就要求两个网络对于同一张图片的输出是相同的,也就是这两个网络是相同的。即共享权重的网络。因此我们可以定义网络如下:
class FaceNet(paddle.nn.Layer):def __init__(self):super().__init__()# 共享权重的cnn网络self.cnn = paddle.nn.Sequential(paddle.nn.Conv2D(3, 16, 3, padding=1),paddle.nn.ReLU(),paddle.nn.MaxPool2D(2, 2),paddle.nn.Conv2D(16, 32, 3, padding=1),paddle.nn.ReLU(),paddle.nn.MaxPool2D(2, 2),paddle.nn.Conv2D(32, 64, 3, padding=1),paddle.nn.ReLU(),paddle.nn.MaxPool2D(2, 2),paddle.nn.Conv2D(64, 128, 3, padding=1),paddle.nn.ReLU(),paddle.nn.MaxPool2D(2, 2),paddle.nn.Flatten(),paddle.nn.Linear(4608, 5))def forward(self, face1, face2):# 前向传播:使用cnn网络分别输出两个结果并返回n1r = self.cnn(face1)n2r = self.cnn(face2)return n1r, n2r
这个网络还需要有特殊的损失函数。这个损失函数将会使相同的人脸距离相近,不同的人脸距离更远。我们采用勾股定理计算距离,这样的距离也叫欧氏距离。
因此,对于一个在n维空间上的两个点(x1, x2, x3, ..., xn), (y1, y2, y3, ..., yn),就有:
因此,如果人脸相同,损失函数将会输出的损失值是:
这样的话,如果距离过远,损失值就会偏大 ,从而使输出更接近0
如果人脸不同,输出的损失值是:
这样的话,只有当距离比设定阈值远时,损失才为0.
另外,损失最好使用乘方而不是绝对值,这样的话就可以增加远离时的梯度。
我们定义其损失函数如下:
# 损失函数定义
class FaceLoss(paddle.nn.Layer):def __init__(self, margin=(512 ** 0.5)):super(FaceLoss, self).__init__()self.margin = margindef forward(self, output1, output2, label):# 计算欧式距离(勾股定理)euclidean_distance = paddle.norm(output1 - output2, axis=1)# 损失值# 在数据集中,1为相同,0为不同。但是输出要求相似的图片距离更近loss_contrastive = label * paddle.square(euclidean_distance) + \(1 - label) * paddle.square(paddle.maximum(self.margin - euclidean_distance, paddle.to_tensor(0.0)))# 损失函数应对同一批次取一个损失值return paddle.mean(loss_contrastive)
在paddle中,可以使用paddle.norm计算距离。axis=1表示只对第1维度计算距离,因为第0维度是数据批次。
在数据集中,我们定义1为相同,0为不同。根据我们之前的分析,很容易算出损失值的公式。
接下来就可以把这两个整合在一个py文件中,起名face_layers.py:
import paddleclass FaceNet(paddle.nn.Layer):def __init__(self):super().__init__()# 共享权重的cnn网络self.cnn = paddle.nn.Sequential(paddle.nn.Conv2D(3, 16, 3, padding=1),paddle.nn.ReLU(),paddle.nn.MaxPool2D(2, 2),paddle.nn.Conv2D(16, 32, 3, padding=1),paddle.nn.ReLU(),paddle.nn.MaxPool2D(2, 2),paddle.nn.Conv2D(32, 64, 3, padding=1),paddle.nn.ReLU(),paddle.nn.MaxPool2D(2, 2),paddle.nn.Conv2D(64, 128, 3, padding=1),paddle.nn.ReLU(),paddle.nn.MaxPool2D(2, 2),paddle.nn.Flatten(),paddle.nn.Linear(4608, 5))def forward(self, face1, face2):# 前向传播:使用cnn网络分别输出两个结果并返回n1r = self.cnn(face1)n2r = self.cnn(face2)return n1r, n2r# 损失函数定义
class FaceLoss(paddle.nn.Layer):def __init__(self, margin=(512 ** 0.5)):super(FaceLoss, self).__init__()self.margin = margindef forward(self, output1, output2, label):# 计算欧式距离(勾股定理)euclidean_distance = paddle.norm(output1 - output2, axis=1)# 损失值# 在数据集中,1为相同,0为不同。但是输出要求相似的图片距离更近loss_contrastive = label * paddle.square(euclidean_distance) + \(1 - label) * paddle.square(paddle.maximum(self.margin - euclidean_distance, paddle.to_tensor(0.0)))# 损失函数应对同一批次取一个损失值return paddle.mean(loss_contrastive)
训练
接下来我们需要编写训练脚本face.py:
import paddle
from face_dataset import FaceData
from face_layers import FaceNet, FaceLoss
import pickle# 加载数据集
train_dataset = pickle.load(open('./database/train.data', 'rb'))
test_dataset = pickle.load(open('./database/test.data', 'rb'))# 输出数据集信息
print(f'加载数据完毕,训练集数据个数:{len(train_dataset)};测试集数据个数:{len(test_dataset)}')count = 0
for context1, context2, label in train_dataset:if label == 1:count += 1print(f'训练集相同人脸个数{count}')count = 0
for context1, context2, label in test_dataset:if label == 1:count += 1print(f'测试集相同人脸个数{count}')# 指定设备
paddle.device.set_device('gpu')# 创建模型
model = paddle.Model(FaceNet())# 打印模型信息
print(model.summary(((1, 3, 96, 96), (1, 3, 96, 96))))# 模型训练的配置准备,准备损失函数,优化器和评价指标
model.prepare(paddle.optimizer.Adam(parameters=model.parameters(), learning_rate=0.00001),FaceLoss())# 模型训练
model.fit(train_dataset, epochs=50, batch_size=64, verbose=1)
# 模型评估
model.evaluate(test_dataset, batch_size=64, verbose=1)# 保存模型
model.save('./output/face-compare')
这里需要注意,我们需要使用FaceLoss作为损失函数
训练完毕后,训练数据将被存储在本地的output文件夹下,使用时加载即可
接下来我们可以编写face_use.py使用这个模型:
import paddle
from face_dataset import FaceData
from face_layers import FaceNet
from PIL import Image
import numpy as np# 加载模型
model = paddle.Model(FaceNet())
model.load('./output/face-compare')print('加载模型完毕')# 打开图片
pil_img1 = Image.open(f'facecap\\003\\30.jpg').convert('RGB').resize((96, 96))
pil_img2 = Image.open(f'facecap\\003\\27.jpg').convert('RGB').resize((96, 96))# 转np数组
np_img1 = np.array(pil_img1, dtype=np.float32).transpose((2, 0, 1)) / 255.0
np_img2 = np.array(pil_img2, dtype=np.float32).transpose((2, 0, 1)) / 255.0# 预测
pred = model.predict_batch((np.array([np_img1], dtype=np.float32), np.array([np_img2], dtype=np.float32)))# 计算距离
euclidean_distance = paddle.norm(paddle.to_tensor([pred[0]]) - paddle.to_tensor([pred[1]]))
print(euclidean_distance.numpy())
这里只以两张相同人的人脸的图片做测试,最后输出:
加载模型完毕
[0.1978856]
改用两张不同人的人脸做测试,最后输出:
加载模型完毕
[1.1059165]
可以看到,这个模型的效果还不错。但是经过我的多次测试,发现这个模型还有一定的提升空间。这需要更大的数据集、更深的模型和更多的训练次数
总结
我们使用孪生网络技术,成功实现了人脸对比模型,并有一定的准确性,可以应用于人脸比对等场景。但是,由于数据集、模型和训练次数有限,还难以实现更准确的人脸对比