项目简述
本文描述如何只使用opencv将车牌中的车牌号提取出来,整个过程大致分为三个过程:车牌定位,车牌号元素分割,模式匹配。
在做完这个实验后,我感触是,只用opencv的方式能使用的场景有限,不如用模型的方式适用的场景广,推荐还是使用模型去做。
下面我分别介绍这三个流程:
本文借鉴了 【OpenCV实战】简洁易懂的车牌号识别Python+OpenCV实现“超详解”(含代码)_车牌识别代码-CSDN博客
车牌定位
先定义一些公用的方法:
import cv2
import numpy as np
from matplotlib import pyplot as plt
import os
# plt显示彩色图片
def plt_show0(img):
#cv2与plt的图像通道不同:cv2为[b,g,r];plt为[r, g, b]
b,g,r = cv2.split(img)
img = cv2.merge([r, g, b])
plt.imshow(img)
plt.show()
# plt显示灰度图片
def plt_show_gray(img):
plt.imshow(img, cmap='gray')
plt.show()
# 图像去噪灰度处理
def gray_guss(image):
image = cv2.GaussianBlur(image, (3, 3), 0)
image_shape = image.shape
if len(image_shape) == 3:
gray_image = cv2.cvtColor(image, cv2.COLOR_RGB2GRAY)
return gray_image
else:
return image
车牌灰度化
我们输入的图片
img_path = r'D:\tmp\cv\plate_number\car_3.jpg'
car = cv2.imread(img_path)
blur_car = gray_guss(car)
plt_show_gray(blur_car)
灰度化是为了后面做sobel检测,灰度化的图片是:
sobel检测
Sobel_x = cv2.Sobel(blur_car, cv2.CV_16S, 1, 0)
将数据类型从CV_16S转化到CV_8U, 之所以sobel方法要用16S,是因为sobel在计算过程会产生负值,并且最大值会超过255。
absX = cv2.convertScaleAbs(Sobel_x)
寻找车牌位置
核心思想就是使用车牌的特征来寻找这牌的位置,比如说 车牌是长方形(长>宽),车牌一般不会 在图片的边缘上(拍照的习惯)等等,因此我们也看到的opecv方式的弊端,泛化能力比较差。
首先进行二值化
image = absX
ret, image = cv2.threshold(image, 0, 255, cv2.THRESH_OTSU)
然后我们使用闭操作,目的是让车牌形成一个白色的长方形,方便我们用车牌特征来匹配车牌的位置。
kernelX = cv2.getStructuringElement(cv2.MORPH_RECT, (30, 10))
image = cv2.morphologyEx(image, cv2.MORPH_CLOSE, kernelX,iterations = 1)
有点儿意思了,但是长方形内部还有些空隙,我们继续处理:
kernelX = cv2.getStructuringElement(cv2.MORPH_RECT, (50, 1))
kernelY = cv2.getStructuringElement(cv2.MORPH_RECT, (1, 20))
我们在x方向上做膨胀操作,目的是让白色填充满车牌
image = cv2.dilate(image, kernelX)
在y方向做腐蚀操作,目的是让车牌和其他白色区域分离开,方便后面的轮廓查找
image = cv2.erode(image, kernelX)
然后来一次中值滤波,去掉白色小块,只保留比较大的区域
image = cv2.medianBlur(image, 21)
我们将所有的轮廓画出来,并计算一下面积:
contours, hierarchy = cv2.findContours(image, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
car_operator = car.copy()
# 将所有区域取出来
data = {}
for index, item in enumerate(contours):
rect = cv2.boundingRect(item)
x = rect[0]
y = rect[1]
weight = rect[2]
height = rect[3]
# 根据轮廓的形状特点,确定车牌的轮廓位置并截取图像
# if (weight > (height * 3.5)) and (weight < (height * 4)):
# image = car[y:y + height, x:x + weight]
# plt_show0(image)
area = cv2.contourArea(item)
data[index] = {'area': area, 'x':x, 'y':y, 'w':weight, 'h':height}
cv2.putText(car_operator, str(area), (x+10, y+height+30), cv2.FONT_HERSHEY_COMPLEX, 0.8, (0, 0, 255), 3)
cv2.rectangle(car_operator, (x, y), (x+weight, y+height), (0,255,0), 2)
根据车牌的特征过滤一下轮廓,我这里只用了面积和位置,你可以增加一些其他特点,让代码具有更前的泛化能力。
result_key = -1
for k in data:
# 车牌在图片的中间位置,而不是边缘位置
if data[k]['x'] == 0 or data[k]['y'] == 0:
print(f"{k} is at the top or the left, pass.")
continue
#
if data[k]['y'] + data[k]['h'] >= car_operator.shape[0]:
print(f"{k} is at hte bottom, pass.")
continue
if data[k]['x'] + data[k]['w'] >= car_operator.shape[1]:
print(f"{k} is at hte right, pass.")
continue
# 选取区域面积比较大(这个特点有点局限性,在我这个图片中比较合适)
if result_key == -1:
result_key = k
else:
if data[k]['area'] > data[result_key]['area']:
result_key = k
result_key
x,y,h,w = data[result_key]['x'],data[result_key]['y'],data[result_key]['h'], data[result_key]['w']
image = car[y:y + h, x:x + w]
字符分割
字符分割的目的是将车牌中的多个字符分割成单个的字符,这样我们就可以对单个字符做模式匹配或者是用模型来做分类,从而识别单个字符是那个数字或者是那个字符,也或者是那个汉字,我们也就达到了车牌识别的目的。
二值化
首先进行高斯模糊屏蔽掉一些细节,然后再进行二值化
gray_image = gray_guss(image)
ret, gray_image = cv2.threshold(gray_image, 0, 255, cv2.THRESH_OTSU)
找出字符的轮廓
我们对车牌进行开操作,目的让字符和边缘尽可能的分开
kernel = cv2.getStructuringElement(cv2.MORPH_RECT, (3, 3))
# gray_image = cv2.dilate(gray_image, kernel)
opening = cv2.morphologyEx(gray_image, cv2.MORPH_OPEN, kernel)
然后进行轮廓查找
img_copy = image.copy()
for item in contours:
rect = cv2.boundingRect(item)
x = rect[0]
y = rect[1]
w = rect[2]
h = rect[3]
cv2.rectangle(img_copy,(x,y),(x+w,y+h),(0,255,0),1)
这里有一个问题,我们可以看到 苏 被分成两个轮廓了,这样肯定是不能进行匹配的,我试过对车牌进行膨胀操作,但是会导致E和车牌上的螺丝连在一起,最终导致E不能被识别。
这个实验中,我先处理的数字和字母,最后处理的汉字。
把所有的轮廓存储起来:
words = []
#对所有轮廓逐一操作
shape = image.shape
for item in contours:
word = []
rect = cv2.boundingRect(item)
x = rect[0]
y = rect[1]
weight = rect[2]
height = rect[3]
word.append(x)
word.append(y)
word.append(weight)
word.append(height)
words.append(word)
# 排序,车牌号有顺序。words是一个嵌套列表
words = sorted(words,key=lambda s:s[0],reverse=False)
先做一个初步过滤,去掉那些在边缘上的轮廓:
filter_words = []
for item in words:
x = item[0]
y = item[1]
w = item [2]
h = item[3]
if x == 0:
print('x==0', item)
continue
if y == 0:
print('y==0', item)
continue
if y + h >= shape[0]:
print('y+h', item)
continue
if x + w >= shape[1]:
print('x+w', item)
continue
filter_words.append(item)
filter_words
查找数字和字母
然后按照字符的长宽比例筛选出 字母和数字:
word_images = []
i = 0
success_word = []
#word中存放轮廓的起始点和宽高
for word in filter_words:
# 筛选字符的轮廓
# 高> 宽*1.5 高< 宽*3.5 高大于25
print(word)
if (word[3] > (word[2] * 1.5)) and (word[2] > 20 or (word[2] >= 7 and word[3] > 50)):
i = i+1
print(r'---')
splite_image = gray_image[word[1]:word[1] + word[3], word[0]:word[0] + word[2]]
word_images.append(splite_image)
success_word.append(word)
print(i)
# print(words)
for i,j in enumerate(word_images):
plt.subplot(1,7,i+1)
plt.imshow(word_images[i],cmap='gray')
查找汉字
先切割出汉字
sucess_img = gray_image[:, :x]
然后进行膨胀操作,让苏的两部分连在一起
kernel = cv2.getStructuringElement(cv2.MORPH_RECT, (3, 3))
sucess_img = cv2.dilate(sucess_img, kernel)
然后进行轮廓查找
contours, hierarchy = cv2.findContours(sucess_img, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
img_copy = image.copy()
for item in contours:
rect = cv2.boundingRect(item)
x = rect[0]
y = rect[1]
w = rect[2]
h = rect[3]
cv2.rectangle(img_copy,(x,y),(x+w,y+h),(0,255,0),1)
然后和上文一样,利用长宽特征过滤出有用的轮廓
s_words = []
#对所有轮廓逐一操作
shape = image.shape
for item in contours:
word = []
rect = cv2.boundingRect(item)
x = rect[0]
y = rect[1]
weight = rect[2]
height = rect[3]
word.append(x)
word.append(y)
word.append(weight)
word.append(height)
s_words.append(word)
# 排序,车牌号有顺序。words是一个嵌套列表
s_words = sorted(s_words,key=lambda s:s[0],reverse=False)
filter_words = []
for item in s_words:
x = item[0]
y = item[1]
w = item [2]
h = item[3]
if x == 0:
print('x==0', item)
continue
if y == 0:
print('y==0', item)
continue
if y + h >= shape[0]:
print('y+h', item)
continue
if x + w >= shape[1]:
print('x+w', item)
continue
filter_words.append(item)
splite_image = gray_image[filter_words[-1][1]:filter_words[-1][1] + filter_words[-1][3], filter_words[-1][0]:filter_words[-1][0] + filter_words[-1][2]]
word_images.insert(0, splite_image)
for i,j in enumerate(word_images):
plt.subplot(1,7,i+1)
plt.imshow(word_images[i],cmap='gray')
plt.show()
模式匹配
这里需要先获取待匹配的图片,也就是代码中的refer1文件夹,有需要的可以到QQ群中找我要,QQ群地址在文章的最后。
#模版匹配
# 准备模板(template[0-9]为数字模板;)
template = ['0','1','2','3','4','5','6','7','8','9',
'A','B','C','D','E','F','G','H','J','K','L','M','N','P','Q','R','S','T','U','V','W','X','Y','Z',
'藏','川','鄂','甘','赣','贵','桂','黑','沪','吉','冀','津','晋','京','辽','鲁','蒙','闽','宁',
'青','琼','陕','苏','皖','湘','新','渝','豫','粤','云','浙']
# 读取一个文件夹下的所有图片,输入参数是文件名,返回模板文件地址列表
def read_directory(directory_name):
referImg_list = []
for filename in os.listdir(directory_name):
referImg_list.append(directory_name + "/" + filename)
return referImg_list
# 获得中文模板列表(只匹配车牌的第一个字符)
def get_chinese_words_list():
chinese_words_list = []
for i in range(34,64):
#将模板存放在字典中
c_word = read_directory('./refer1/'+ template[i])
chinese_words_list.append(c_word)
return chinese_words_list
chinese_words_list = get_chinese_words_list()
# 获得英文模板列表(只匹配车牌的第二个字符)
def get_eng_words_list():
eng_words_list = []
for i in range(10,34):
e_word = read_directory('./refer1/'+ template[i])
eng_words_list.append(e_word)
return eng_words_list
eng_words_list = get_eng_words_list()
# 获得英文和数字模板列表(匹配车牌后面的字符)
def get_eng_num_words_list():
eng_num_words_list = []
for i in range(0,34):
word = read_directory('./refer1/'+ template[i])
eng_num_words_list.append(word)
return eng_num_words_list
eng_num_words_list = get_eng_num_words_list()
# 读取一个模板地址与图片进行匹配,返回得分
def template_score(template,image):
#将模板进行格式转换
template_img=cv2.imdecode(np.fromfile(template,dtype=np.uint8),1)
template_img = cv2.cvtColor(template_img, cv2.COLOR_RGB2GRAY)
#模板图像阈值化处理——获得黑白图
ret, template_img = cv2.threshold(template_img, 0, 255, cv2.THRESH_OTSU)
# height, width = template_img.shape
# image_ = image.copy()
# image_ = cv2.resize(image_, (width, height))
image_ = image.copy()
#获得待检测图片的尺寸
height, width = image_.shape
# 将模板resize至与图像一样大小
template_img = cv2.resize(template_img, (width, height))
# 模板匹配,返回匹配得分
result = cv2.matchTemplate(image_, template_img, cv2.TM_CCOEFF)
return result[0][0]
# 对分割得到的字符逐一匹配
def template_matching(word_images):
results = []
for index,word_image in enumerate(word_images):
if index==0:
best_score = []
for chinese_words in chinese_words_list:
score = []
for chinese_word in chinese_words:
result = template_score(chinese_word,word_image)
score.append(result)
best_score.append(max(score))
i = best_score.index(max(best_score))
# print(template[34+i])
r = template[34+i]
results.append(r)
continue
if index==1:
best_score = []
for eng_word_list in eng_words_list:
score = []
for eng_word in eng_word_list:
result = template_score(eng_word,word_image)
score.append(result)
best_score.append(max(score))
i = best_score.index(max(best_score))
# print(template[10+i])
r = template[10+i]
results.append(r)
continue
else:
best_score = []
for eng_num_word_list in eng_num_words_list:
score = []
for eng_num_word in eng_num_word_list:
result = template_score(eng_num_word,word_image)
score.append(result)
best_score.append(max(score))
i = best_score.index(max(best_score))
# print(template[i])
r = template[i]
results.append(r)
continue
return results
输出结果
word_images_ = word_images.copy()
# 调用函数获得结果
%time result = template_matching(word_images_)
print(result)
# "".join(result)函数将列表转换为拼接好的字符串,方便结果显示
print( "".join(result))
总体上这个方式的局限性比较大,距离应用在实际场景还有很大的差距,可以当做opencv的练手来玩。
这个车牌是可以识别出字符和数字部分
这个图片,车牌都定位不到,待优化的地方还是有很多的,后面可以用yolo试试
####
祝你好运
# 有问题可以进群聊聊
614809646 qq群->数字人和tts,运维、开发等等
####