第 8 章图像内容分类

news2024/9/19 10:18:08

本章介绍图像分类和图像内容分类算法。首先,我们介绍一些简单而有效的方法和目前一些性能最好的分类器,并运用它们解决两类和多类分类问题,最后展示两个用于手势识别和目标识别的应用实例。

8.1 K邻近分类法(KNN)

在分类方法中,最简单且用得最多的一种方法之一就是 KNN(K-Nearest Neighbor ,K邻近分类法),这种算法把要分类的对象(例如一个特征向量)与训练集中已知类标记的所有对象进行对比,并由 k 近邻对指派到哪个类进行投票。这种方法通常分类效果较好,但是也有很多弊端:与 K-means 聚类算法一样,需要预先设定 k 值,k 值的选择会影响分类的性能;此外,这种方法要求将整个训练集存储起来,如果训练集非常大,搜索起来就非常慢。对于大训练集,采取某些装箱形式通常会减少对比的次数 1 从积极的一面来看,这种方法在采用何种距离度量方面是没有限制的;实际上,对于你所能想到的东西它都可以奏效,但这并不意味着对任何东西它的分类性能都很好。另外,这种算法的可并行性也很一般。实现最基本的 KNN 形式非常简单。给定训练样本集和对应的标记列表,下面的代码可以用来完成这一工作。这些训练样本和标记可以在一个数组里成行摆放或者干脆摆放列表里,训练样本可能是数字、字符串等任何你喜欢的形状。将定义的类对象添加到名为 knn.py 的文件里:

class KnnClassifier(object):

def __init__(self,labels,samples):

""" 使用训练数据初始化分类器 """

self.labels = labels

self.samples = samples

def classify(self,point,k=3):

""" 在训练数据上采用 k 近邻分类,并返回标记 """

# 计算所有训练数据点的距离

dist = array([L2dist(point,s) for s in self.samples])

# 对它们进行排序

ndx = dist.argsort()

# 用字典存储 k 近邻

votes = {}

for i in range(k):

label = self.labels[ndx[i]]

votes.setdefault(label,0)

votes[label] += 1

return max(votes)

def L2dist(p1,p2):

return sqrt( sum( (p1-p2)**2) )

定义一个类并用训练数据初始化非常简单 ; 每次想对某些东西进行分类时,用 KNN方法,我们就没有必要存储并将训练数据作为参数来传递。用一个字典来存储邻近标记,我们便可以用文本字符串或数字来表示标记。在这个例子中,我们用欧式距离 (L2) 进行度量,当然,如果你有其他的度量方式,只需要将其作为函数添加到上面代码的最后。

8.1.1 一个简单的二维示例

我们首先建立一些简单的二维示例数据集来说明并可视化分类器的工作原理,下面的脚本将创建两个不同的二维点集,每个点集有两类,用 Pickle 模块来保存创建的数据:

from numpy.random import randn

import pickle

# 创建二维样本数据

n = 200

# 两个正态分布数据集

class_1 = 0.6 * randn(n,2)

class_2 = 1.2 * randn(n,2) + array([5,1])

labels = hstack((ones(n),-ones(n)))

# 用 Pickle 模块保存

with open('points_normal.pkl', 'w') as f:

pickle.dump(class_1,f)

pickle.dump(class_2,f)

pickle.dump(labels,f)

# 正态分布,并使数据成环绕状分布

class_1 = 0.6 * randn(n,2)

r = 0.8 * randn(n,1) + 5

angle = 2*pi * randn(n,1)

class_2 = hstack((r*cos(angle),r*sin(angle)))

labels = hstack((ones(n),-ones(n)))

# 用 Pickle 保存

with open('points_ring.pkl', 'w') as f:

pickle.dump(class_1,f)

pickle.dump(class_2,f)

pickle.dump(labels,f)

用不同的保存文件名运行该脚本两次,例如第一次用代码中的文件名进行保存,第二次将代码中的 points_normal_t.pkl 和 points_ring_pkl 分别改为 points_normal_test.pkl 和 points_ring_test.pkl 进行保存。你将得到 4 个二维数据集文件,每个分布都有两个文件,我们可以将一个用来训练,另一个用来做测试。让我们看看怎么用 KNN 分类器来完成,用下面的代码来创建一个脚本:

import pickle

import knn

import imtools

# 用 Pickle 载入二维数据点

with open('points_normal.pkl', 'r') as f:

class_1 = pickle.load(f)

class_2 = pickle.load(f)

labels = pickle.load(f)

model = knn.KnnClassifier(labels,vstack((class_1,class_2)))

这里用 Pickle 模块来创建一个 kNN 分类器模型。现在在上面代码后添加下面的代码:

# 用 Pickle 模块载入测试数据

with open('points_normal_test.pkl', 'r') as f:

class_1 = pickle.load(f)

class_2 = pickle.load(f)

labels = pickle.load(f)

# 在测试数据集的第一个数据点上进行测试

print model.classify(class_1[0])

上面代码载入另一个数据集(测试数据集),并在你的控制台上打印第一个数据点估计出来的类标记。

为了可视化所有测试数据点的分类,并展示分类器将两个不同的类分开得怎样,我们可以添加这些代码:

# 定义绘图函数

def classify(x,y,model=model):

return array([model.classify([xx,yy]) for (xx,yy) in zip(x,y)])

# 绘制分类边界

imtools.plot_2D_boundary([-6,6,-6,6],[class_1,class_2],classify,[1,-1])

show()

这里我们创建了一个简短的辅助函数以获取 x 和 y 二维坐标数组和分类器,并返回一个预测的类标记数组。现在我们把函数作为参数传递给实际的绘图函数。把下面的函数添加到文件 imtools 中:

def plot_2D_boundary(plot_range,points,decisionfcn,labels,values=[0]):

"""Plot_range 为(xmin,xmax,ymin,ymax),points 是类数据点列表,

decisionfcn 是评估函数,labels 是函数 decidionfcn 关于每个类返回的标记列表 """

clist = ['b','r','g','k','m','y'] # 不同的类用不同的颜色标识

# 在一个网格上进行评估,并画出决策函数的边界

x = arange(plot_range[0],plot_range[1],.1)

y = arange(plot_range[2],plot_range[3],.1)

xx,yy = meshgrid(x,y)

xxx,yyy = xx.flatten(),yy.flatten() # 网格中的 x,y 坐标点列表

zz = array(decisionfcn(xxx,yyy))

zz = zz.reshape(xx.shape)

# 以 values 画出边界

contour(xx,yy,zz,values)

# 对于每类,用 * 画出分类正确的点,用 o 画出分类不正确的点

for i in range(len(points)):

d = decisionfcn(points[i][:,0],points[i][:,1])

correct_ndx = labels[i]==d

incorrect_ndx = labels[i]!=d

plot(points[i][correct_ndx,0],points[i][correct_ndx,1],'*',color=clist[i])

plot(points[i][incorrect_ndx,0],points[i][incorrect_ndx,1],'o',color=clist[i])

axis('equal')

这个函数需要一个决策函数(分类器),并且用 meshgrid() 函数在一个网格上进行预测。决策函数的等值线可以显示边界的位置,默认边界为零等值线。画出来的结果如图 8-1 所示,正如你所看到的,kNN 决策边界适用于没有任何明确模型的类分布。

图 8-1:用 K 邻近分类器分类二维数据。每个示例中,不同颜色代表类标记,正确分类的点用星号表示,分类错误的点用圆点表示,曲线是分类器的决策边界

8.1.2 用稠密SIFT作为图像特征

我们来看如何对图像进行分类。要对图像进行分类,我们需要一个特征向量来表示一幅图像。在聚类一章我们用平均 RGB 像素值和 PCA 系数作为图像的特征向量;这里我们会介绍另外一种表示形式,即稠密 SIFT 特征向量。

在整幅图像上用一个规则的网格应用 SIFT 描述子可以得到稠密 SIFT 的表示形式 1 ,我们可以利用 2.2 节的可执行脚本,通过添加一些额外的参数来得到稠密 SIFT 特征。创建一个名为 dsift.py 的文件,并添加下面代码到该文件中:

import sift

def process_image_dsift(imagename,resultname,size=20,steps=10,

force_orientation=False,resize=None):

""" 用密集采样的 SIFT 描述子处理一幅图像,并将结果保存在一个文件中。可选的输入:

特征的大小 size,位置之间的步长 steps,是否强迫计算描述子的方位 force_orientation

(False 表示所有的方位都是朝上的),用于调整图像大小的元组 """

im = Image.open(imagename).convert('L')

if resize!=None:

im = im.resize(resize)

m,n = im.size

if imagename[-3:] != 'pgm':

# 创建一个 pgm 文件

im.save('tmp.pgm')

imagename = 'tmp.pgm'

# 创建帧,并保存到临时文件

scale = size/3.0

x,y = meshgrid(range(steps,m,steps),range(steps,n,steps))

xx,yy = x.flatten(),y.flatten()

frame = array([xx,yy,scale*ones(xx.shape[0]),zeros(xx.shape[0])])

savetxt('tmp.frame',frame.T,fmt='%03.3f')

if force_orientation:

cmmd = str("sift "+imagename+" --output="+resultname+

" --read-frames=tmp.frame --orientations")

else:

cmmd = str("sift "+imagename+" --output="+resultname+

" --read-frames=tmp.frame")

os.system(cmmd)

print 'processed', imagename, 'to', resultname

对比 2.2 节的 process_image() 函数,为了使用命令行处理,我们用 savetxt() 函数将帧数组存储在一个文本文件中,该函数的最后一个参数可以在提取描述子之前对图像的大小进行调整,例如,传递参数 imsize=(100, 100) 会将图像调整为 100×100像素的方形图像。最后,如果 force_orientation 为真,则提取出来的描述子会基于

局部主梯度方向进行归一化;否则,则所有的描述子的方向只是简单地朝上。

利用类似下面的代码可以计算稠密 SIFT 描述子,并可视化它们的位置:

import dsift,sift

dsift.process_image_dsift('empire.jpg','empire.sift',90,40,True)

l,d = sift.read_features_from_file('empire.sift')

im = array(Image.open('empire.jpg'))

sift.plot_features(im,l,True)

show()

使用用于定位描述子的局部梯度方向(force_orientation 设置为真),该代码可以在整个图像中计算出稠密 SIFT 特征。图 8-2 显示出了这些位置。

图 8-2:在一幅图像上应用稠密 SIFT 描述子的例子

8.1.3 图像分类:手势识别

在这个应用中,我们会用稠密 SIFT 描述子来表示这些手势图像,并建立一个简单的手势识别系统。我们用静态手势(Static Hand Posture)数据库(参见 http://www.idiap.ch/resource/gestures/)中的一些图像进行演示。在该数据库主页上下载数据较小的测试集 test set 16.3Mb,将下载后的所有图像放在一个名为 uniform 的文件夹里,每一类均分两组,并分别放入名为 train 和 test 的两个文件夹中。用上面的稠密 SIFT 函数对图像进行处理,可以得到所有图像的特征向量。这里,再次假设列表 imlist 中包含了所有图像的文件名,可以通过下面的代码得到每幅图像的稠密 SIFT 特征:

import dsift

# 将图像尺寸调为 (50,50),然后进行处理

for filename in imlist:

featfile = filename[:-3]+'dsift'

dsift.process_image_dsift(filename,featfile,10,5,resize=(50,50))

上面代码会对每一幅图像创建一个特征文件,文件名后缀为 .dsift。注意,这里将图像分辨率调成了常见的固定大小。这是非常重要的,否则这些图像会有不同数量的描述子,从而每幅图像的特征向量长度也不一样,这将导致在后面比较它们时出错。图 8-3 绘制出了一些带有描述子的图像。

图 8-3:6 类简单手势图像的稠密 SIFT 描述子,图像来源于静态手势(Static Hand Posture)数据库

定义一个辅助函数,用于从文件中读取稠密 SIFT 描述子,如下:

import os, sift

def read_gesture_features_labels(path):

# 对所有以 .dsift 为后缀的文件创建一个列表

featlist = [os.path.join(path,f) for f in os.listdir(path) if f.endswith('.dsift')]

# 读取特征

features = []

for featfile in featlist:

l,d = sift.read_features_from_file(featfile)

features.append(d.flatten())

features = array(features)

# 创建标记

labels = [featfile.split('/')[-1][0] for featfile in featlist]

return features,array(labels)

然后,我们可以用下面的脚本读取训练集、测试集的特征和标记信息:

features,labels = read_gesture_features_labels('train/')

test_features,test_labels = read_gesture_features_labels('test/')

classnames = unique(labels)

这里,我们用文件名的第一个字母作为类标记,用 NumPy 的 unique() 函数可以得到一个排序后唯一的类名称列表。

现在我们可以在该数据上使用前面的 K 近邻代码:

测试 KNN

k = 1

knn_classifier = knn.KnnClassifier(labels,features)

res = array([knn_classifier.classify(test_features[i],k) for i in

range(len(test_labels))])

# 准确率

acc = sum(1.0*(res==test_labels)) / len(test_labels)

print 'Accuracy:', acc

首先,用训练数据及其标记作为输入,创建分类器对象;然后,我们在整个测试集上遍历并用 classify() 方法对每幅图像进行分类。将布尔数组和 1 相乘并求和,可以计算出分类的正确率。由于该例中真值为 1,所以很容易计算出正确分类数。它应该会打印出一个类似下面的结果:

Accuracy: 0.811518324607

这说明该例中有 81% 的图像是正确的。该结果会随 k 值及稠密 SIFT 图像描述子参数的选择而变化。虽然上面的正确率显示了对于一给定的测试集有多少图像是正确分类的,但是它并没有告诉我们哪些手势难以分类,或会犯哪些典型错误。混淆矩阵是一个可以显示每类有多少个样本被分在每一类中的矩阵,它可以显示错误的分布情况,以及哪些类是经常相互“混淆”的。

下面的函数会打印出标记及相应的混淆矩阵:

def print_confusion(res,labels,classnames):

n = len(classnames)

# 混淆矩阵

class_ind = dict([(classnames[i],i) for i in range(n)])

confuse = zeros((n,n))

for i in range(len(test_labels)):

confuse[class_ind[res[i]],class_ind[test_labels[i]]] += 1

print 'Confusion matrix for'

print classnames

print confuse

运行:

print_confusion(res,test_labels,classnames)

打印输出应该如下:

Confusion matrix for

['A' 'B' 'C' 'F' 'P' 'V']

[[ 26. 0. 2. 0. 1. 1.]

[ 0. 26. 0. 1. 1. 1.]

[ 0. 0. 25. 0. 0. 1.]

[ 0. 3. 0. 37. 0. 0.]

[ 0. 1. 2. 0. 17. 1.]

[ 3. 1. 3. 0. 14. 24.]]

上面混淆矩阵显示,本例子中 P(Point)经常被误分为“V”。

8.2 贝叶斯分类器

另一个简单却有效的分类器是贝叶斯分类器 1 (或称朴素贝叶斯分类器)。贝叶斯分类器是一种基于贝叶斯条件概率定理的概率分类器,它假设特征是彼此独立不相关的(这就是它“朴素”的部分)。贝叶斯分类器可以非常有效地被训练出来,原因在于每一个特征模型都是独立选取的。尽管它们的假设非常简单,但是贝叶斯分类器已经在实际应用中获得显著成效,尤其是对垃圾邮件的过滤。贝叶斯分类器的另一个好处是,一旦学习了这个模型,就没有必要存储训练数据了,只需存储模型的参数。该分类器是通过将各个特征的条件概率相乘得到一个类的总概率,然后选取概率最高的那个类构造出来的。

首先让我们看一个使用高斯概率分布模型的贝叶斯分类器基本实现,也就是用从训练数据集计算得到的特征均值和方差来对每个特征单独建模。把下面的 Bayes Classifier 类添加到文件 bayes.py 中:

class BayesClassifier(object):

def __init__(self):

""" 使用训练数据初始化分类器 """

self.labels = [] # 类标签

self.mean = [] # 类均值

self.var = [] # 类方差

self.n = 0 # 类别数

def train(self,data,labels=None):

""" 在数据 data(n×dim 的数组列表)上训练,标记 labels 是可选的,默认为 0…n-1 """

if labels==None:

labels = range(len(data))

self.labels = labels

self.n = len(labels)

for c in data:

self.mean.append(mean(c,axis=0))

self.var.append(var(c,axis=0))

def classify(self,points):

""" 通过计算得出的每一类的概率对数据点进行分类,并返回最可能的标记 """

# 计算每一类的概率

est_prob = array([gauss(m,v,points) for m,v in zip(self.mean,self.var)])

# 获取具有最高概率的索引,该索引会给出类标签

ndx = est_prob.argmax(axis=0)

est_labels = array([self.labels[n] for n in ndx])

return est_labels, est_prob

该模型每一类都有两个变量,即类均值和协方差。train() 方法获取特征数组列表(每个类对应一个特征数组),并计算每个特征数组的均值和协方差。classify() 方法计算数据点构成的数组的类概率,并选概率最高的那个类,最终返回预测的类标记及概率值,同时需要一个高斯辅助函数:

def gauss(m,v,x):

""" 用独立均值 m 和方差 v 评估 d 维高斯分布 """

if len(x.shape)==1:

n,d = 1,x.shape[0]

else:

n,d = x.shape

# 协方差矩阵,减去均值

S = diag(1/v)

x = x-m

# 概率的乘积

y = exp(-0.5*diag(dot(x,dot(S,x.T))))

# 归一化并返回

return y * (2*pi)**(-d/2.0) / ( sqrt(prod(v)) + 1e-6)

该函数用来计算单个高斯分布的乘积,返回给定一组模型参数 m v 的概率,更多多元正态分布例子可以参见 http://en.wikipedia.org/wiki/Multivariate_normal_distribution。

将该贝叶斯分类器用于上一节的二维数据,下面的脚本将载入上一节中的二维数据,并训练出一个分类器:

import pickle

import bayes

import imtools

# 用 Pickle 模块载入二维样本点

with open('points_normal.pkl', 'r') as f:

class_1 = pickle.load(f)

class_2 = pickle.load(f)

labels = pickle.load(f)

# 训练贝叶斯分类器

bc = bayes.BayesClassifier()

bc.train([class_1,class_2],[1,-1])

下面我们可以载入上一节中的二维测试数据对分类器进行测试:

# 用 Pickle 模块载入测试数据

with open('points_normal_test.pkl', 'r') as f:

class_1 = pickle.load(f)

class_2 = pickle.load(f)

labels = pickle.load(f)

# 在某些数据点上进行测试

print bc.classify(class_1[:10])[0]

# 绘制这些二维数据点及决策边界

def classify(x,y,bc=bc):

points = vstack((x,y))

return bc.classify(points.T)[0]

imtools.plot_2D_boundary([-6,6,-6,6],[class_1,class_2],classify,[1,-1])

show()

该脚本会将前 10 个二维数据点的分类结果打印输出到控制台,输出结果如下:

[1 1 1 1 1 1 1 1 1 1]

我们再次用一个辅助函数 classify() 在一个网格上评估该函数来可视化这一分类结果。两个数据集的分类结果如图 8-4 所示;该例中,决策边界是一个椭圆,类似于二维高斯函数的等值线。

图 8-4:用贝叶斯分类器对二维数据进行分类。每个例子中的颜色代表了类标记。正确分类的点用星号表示,误错分类的点用圆点表示,曲线是分类器的决策边界

用PCA降维

现在,我们尝试手势识别问题。由于稠密 SIFT 描述子的特征向量十分庞大(从前面的例子可以看到,参数的选取超过了 10 000),在用数据拟合模型之前进行降维处理是一个很好的想法。主成分分析,即 PCA(见 1.3 节),非常适合用于降维。下面的脚本就是用 pca.py 中的 PCA 进行降维:

import pca

V,S,m = pca.pca(features)

# 保持最重要的成分

V = V[:50]

features = array([dot(V,f-m) for f in features])

test_features = array([dot(V,f-m) for f in test_features])

这里的 features 和 test_features 与 K 邻近中的例子中加载的数组是一样的。在本例中,我们在训练数据上用 PCA 降维,并保持在这 50 维具有最大的方差。这可以通过均值 m(是在训练数据上计算得到的)并与基向量 V 相乘做到。对测试数据进行同样的转换。

训练并测试贝叶斯分类器如下:

# 测试贝叶斯分类器

bc = bayes.BayesClassifier()

blist = [features[where(labels==c)[0]] for c in classnames]

bc.train(blist,classnames)

res = bc.classify(test_features)[0]

由于 BayesClassifier 需要获取数组列表(每一类对应一个数组),在把数据传递给train() 函数之前,我们需要对数据进行转换。因为我们目前还不需要概率,所以只需返回预测的类标记。

检查分类准确率:

acc = sum(1.0*(res==test_labels)) / len(test_labels)

print 'Accuracy:', acc

输出如下结果:

Accuracy: 0.717277486911

检查混淆矩阵:

print_confusion(res,test_labels,classnames)

输出如下结果:

Confusion matrix for

['A' 'B' 'C' 'F' 'P' 'V']

[[ 20. 0. 0. 4. 0. 0.]

[ 0. 26. 1. 7. 2. 2.]

[ 1. 0. 27. 5. 1. 0.]

[ 0. 2. 0. 17. 0. 0.]

[ 0. 1. 0. 4. 22. 1.]

[ 8. 2. 4. 1. 8. 25.]]

虽然分类效果不如 K 邻近分类器,但是贝叶斯分类器不需要保存任何训练数据,而且只需保存每个类的模型参数。这一结果会随着 PCA 维度选取的不同而发生巨大的变化。

8.3 支持向量机

SVM(Support Vector Machine,支持向量机)是一类强大的分类器,可以在很多分类问题中给出现有水准很高的分类结果。最简单的 SVM 通过在高维空间中寻找一个最优线性分类面,尽可能地将两类数据分开。对于一特征向量 x 的决策函数为:

f(x)=w· x-b

这里的 i 是从训练集中选出的部分样本,这里选择的样本称为支持向量,因为它们可以帮助定义分类的边界。

SVM 的一个优势是可以使用核函数(kernel function);核函数能够将特征向量映射到另外一个不同维度的空间中,比如高维度空间。通过核函数映射,依然可以保持对决策函数的控制,从而可以有效地解决非线性或者很难的分类问题。用核函数 K(xi , x)替代上面决策函数中的内积 xi · x

对于多分类问题,通常训练多个 SVM,使每一个 SVM 可以将其中一类与其余类分开,这样的分类器也称为“one-versus-all”分类器。关于 SVM 的更多细节可以参阅 在线文档 http://www.support-vector.net/references.html 。

8.3.1 使用LibSVM

LibSVM[7] 是最好的、使用最广泛的 SVM 实现工具包。LibSVM 为 Python 提供了一个良好的接口(也为其他编程语言提供了接口)。

我们看看 LibSVM 在二维样本数据点上是怎样工作的。下面的脚本会载入在前面kNN 范例分类中用到的数据点,并用径向基函数训练一个 SVM 分类器:

import pickle

from svmutil import *

import imtools

# 用 Pickle 载入二维样本点

with open('points_normal.pkl', 'r') as f:

class_1 = pickle.load(f)

class_2 = pickle.load(f)

labels = pickle.load(f)

# 转换成列表,便于使用 libSVM

class_1 = map(list,class_1)

class_2 = map(list,class_2)

labels = list(labels)

samples = class_1+class_2 # 连接两个列表

# 创建 SVM

prob = svm_problem(labels,samples)

param = svm_parameter('-t 2')

# 在数据上训练 SVM

m = svm_train(prob,param)

# 在训练数据上分类效果如何?

res = svm_predict(labels,samples,m)

我们用与前面一样的方法载入数据集,但是这次需要把数组转成列表,因为LibSVM 不支持数组对象作为输入。这里,我们用 Python 的内建函数 map() 进行转换,map() 函数中用到了对角一个元素都会进行转换的 list() 函数。紧接着我们创建了一个 svm_problem 对象,并为其设置了一些参数。调用 svm_train() 求解该优化问题用以确定模型参数,然后就可以用该模型进行预测了。最后一行调用 svm_predict(),用求得的模型 m 对训练数据分类,并显示出在训练数据中分类的正确率,打印输出结果如下:

Accuracy = 100% (400/400) (classification)

结果表明该分类器完全分开了训练数据,400 个数据点全部分类正确。

注意,我们在调用方法训练分类器时添加了一个参数选择字符串,这些参数用于控制核函数的类型、等级及其他选项。尽管其中大部分超出了本书范围,但是需要知道两个重要的参数 t k。参数 t 决定了所用核函数的类型,该选项是:

参数 k 决定了多项式的次数(默认为 3)。

现在,载入其他数据集,并对该分类器进行测试:

# 用 Pickle 模块载入测试数据

with open('points_normal_test.pkl', 'r') as f:

class_1 = pickle.load(f)

class_2 = pickle.load(f)

labels = pickle.load(f)

# 转换成列表,便于使用 LibSVM

class_1 = map(list,class_1)

class_2 = map(list,class_2)

# 定义绘图函数

def predict(x,y,model=m):

return array(svm_predict([0]*len(x),zip(x,y),model)[0])

# 绘制分类边界

imtools.plot_2D_boundary([-6,6,-6,6],[array(class_1),array(class_2)],predict,[-1,1])

show()

我们需要再次为 LibSVM 将数据转成列表,同时和之前一样,我们定义了一个辅助函数 predict() 来绘制分类的边界。注意,如果无法获取真实的标记,我们用([0]*len(x)) 列表来代替标记列表。只要代替的标记列表长度正确,你可以使用任意的列表。图 8-5 显示了两个不同数据集在二维平面上的分布情况。

8-5:用支持向量机 SVM 对二维数据进行分类。在这两幅图中,我们用不同颜色标识类标记。正确分类的点用星号表示,错误分类的点用圆点表示,曲线是分类器的决策边界

8.3.2 再论手势识别

在多类手势识别问题上使用 LibSVM 相当直观。LibSVM 可以自动处理多个类,我们只需要对数据进行格式化,使输入和输出匹配 LibSVM 的要求。和之前的例子一样,feature 和 test_features 两个文件中分别数组的形式保存训练数据和测试数据。下面的代码会载入训练数据测试数据,并训练一个线性 SVM 分类器:

features = map(list,features)

test_features = map(list,test_features)

# 为标记创建转换函数

transl = {}

for i,c in enumerate(classnames):

transl[c],transl[i] = i,c

# 创建 SVM

prob = svm_problem(convert_labels(labels,transl),features)

param = svm_parameter('-t 0')

# 在数据上训练 SVM

m = svm_train(prob,param)

# 在训练数据上分类效果如何

res = svm_predict(convert_labels(labels,transl),features,m)

# 测试 SVM

res = svm_predict(convert_labels(test_labels,transl),test_features,m)[0]

res = convert_labels(res,transl)

与之前一样,我们调用 map() 函数将数组转成列表;因为 LibSVM 不能处理字符串标记,所以这些标记也需要转换。字典 transl 会包含一个在字符串和整数标记间的变换。你可以试着在控制台上打印该变换,看看其对应变换关系。参数 -t 0 设置分类器是线性分类器,决策边界在 10 000 维特征原空间中是一个超平面。

现在,对标记进行比较:

acc = sum(1.0*(res==test_labels)) / len(test_labels)

print 'Accuracy:', acc

print_confusion(res,test_labels,classnames)

用线性核函数得出的分类结果如下:

Accuracy: 0.916230366492

Confusion matrix for

['A' 'B' 'C' 'F' 'P' 'V']

[[ 26. 0. 1. 0. 2. 0.]

[ 0. 28. 0. 0. 1. 0.]

[ 0. 0. 29. 0. 0. 0.]

[ 0. 2. 0. 38. 0. 0.]

[ 0. 1. 0. 0. 27. 1.]

[ 3. 0. 2. 0. 3. 27.]]

现在,正如我们在 8.2 节所做的,用 PCA 将维数降低到 50,分类正确率变为:

Accuracy: 0.890052356021

可以看出,当特征向量维数降低到原空间数据维数的 1/200 时,结果并不差(存储支持向量所需占用的空间也减小到原来的 1/200)。

8.4 光学字符识别

作为一个多类问题实例,让我们来理解数独图像。OCR(Optical Character Recognition,光学字符识别)是一个理解手写或机写文本图像的处理过程。一个常见的例子是通过扫描文件来提取文本,例如书信中的邮政编码或者谷歌图书(http://books.google.com/)里图书馆卷的页数。这里我们看一个简单的在打印的数独图形中识别数字的OCR 问题。数独是一种数字逻辑游戏,规则是用数字 1~9 填满 9×9 的网格,使每一行每一列和每个 3×3 的子网格包含数字 1…91 。在这个例子中我们只对正确地读取和理解它们感兴趣,对于完成识别后怎样求解这些数独问题我们就留给你。

8.4.1 训练分类器

对于这种分类问题,我们有 10 个类:数字 1…9,以及一些什么也没有的单元格。我们给定什么也没有的单元格的类标号是 0,这样所有类标记就是 0…9。我们会用已经剪切好的数独单元格数据集来训练一个 10 类的分类器 2 文件 sudoku_images.zip中有两个文件夹“ocr data”和“sudokus”,后者包含了不同条件下的数独图像集,我们稍后讲解。现在我们主要来看文件夹“ocr_data”,这个文件夹包含了两个子文件夹,一个装有训练图像,另一个装有测试图像。这些图像文件名的第一个字母是数字(0…9),用以标明它们属于哪类。图 8-6 展示了训练集中的一些样本。图像是灰度图,大概是 80×80 像素(有一幅波动)。

8.4.2 选取特征

我们首先要确定选取怎样的特征向量来表示每一个单元格里的图像。有很多不错的选择;这里我们将会用某些简单而有效的特征。输入一个图像,下面的函数将返回一个拉成一组数组后的灰度值特征向量:

def compute_feature(im):

""" 对一个 ocr 图像块返回一个特征向量 """

# 调整大小,并去除边界

norm_im = imresize(im,(30,30))

norm_im = norm_im[3:-3,3:-3]

return norm_im.flatten()

compute_feature() 函数用到 imtools 模块中的尺寸调整函数 imresize(),来减少特征向量的长度。我们还修剪掉了大约 10% 的边界像素,因为这些修剪掉的部分通常是网格线的边缘部分,如图 8-6 所示。

8-6:用于训练 10 类数独 OCR 分类器的训练样本图像

现在我们用下面的函数来读取训练数据:

def load_ocr_data(path):

""" 返回路径中所有图像的标记及 OCR 特征 """

# 对以 .jpg 为后缀的所有文件创建一个列表

imlist = [os.path.join(path,f) for f in os.listdir(path) if f.endswith('.jpg')]

# 创建标记

labels = [int(imfile.split('/')[-1][0]) for imfile in imlist]

# 从图像中创建特征

features = []

for imname in imlist:

im = array(Image.open(imname).convert('L'))

features.append(compute_feature(im))

return array(features),labels

上述代码将每一个 JPEG 文件的文件名中的第一个字母提取出来做类标记,并且这些标记被作为整型数据存储在 lables 列表里;用上面的函数计算出的特征向量存储在一个数组里。

8.4.3 多类支持向量机

在得到了训练数据之后,我们接下来要学习一个分类器,这里将使用多类支持向量机。代码和上一节中的代码类似:

from svmutil import *

# 训练数据

features,labels = load_ocr_data('training/')

# 测试数据

test_features,test_labels = load_ocr_data('testing/')

# 训练一个线性 SVM 分类器

#将 features 和 test_features 转换为列表格式

features = map(list,features)

test_features = map(list,test_features)

#创建一个 SVM 问题对象 prob,包含标签 labels 和特征 features。

#这里的 list(features) 确保特征数据是列表格式。

prob = svm_problem(labels,features)

#创建一个 SVM 参数对象 param,指定使用线性核(-t 0)

param = svm_parameter('-t 0')

m = svm_train(prob,param)

# 在训练数据上分类效果如何

res = svm_predict(labels,features,m)

# 在测试集上表现如何

res = svm_predict(test_labels,test_features,m)

m = svm_train(prob,param)

# 在训练数据上分类效果如何

res = svm_predict(labels,features,m)

# 在测试集上表现如何

res = svm_predict(test_labels,test_features,m)

该代码会训练出一个线性 SVM 分类器,并在测试集上对该分类器的性能进行测试,你可以通过调用最后两个 svm_predict() 函数得到以下输出结果:

Accuracy = 100% (1409/1409) (classification)

Accuracy = 99.2979% (990/997) (classification)

真是一个极好的结果,训练集中的 1409 张图像在 10 类中都被完美地分准确了,在测试集上识别性能也在 99% 左右。现在我们可以将这一分类器用到经过裁剪的新数独图像上。

8.4.4 提取单元格并识别字符

有了识别单元格内容的分类器后,下一步就是自动地找到这些单元格。一旦我们解决了这个问题,就可以对单元格进行裁剪,并把裁剪后的单元格传给分类器。我们假设数独图像是已经对齐的,其水平和垂直网格线平行于图像的边,如图 8-7 所示。在这些条件下,我们可以对图像进行阈值化处理,并在水平和垂直方向上分别对像素值求和。由于这些经阈值处理的边界值为 1,而其他部分值为 0,所以这些边界处会给出很强的响应,可以告诉我们从何处进行裁剪。

下面函数接受一幅灰度图像和一个方向,返回该方向上的 10 条边界:

from scipy.ndimage import measurements

def find_sudoku_edges(im,axis=0):

""" 对一幅对齐后的数独图像查找单元格的边界 """

# 阈值处理,处理后对每行(列)相加求和

trim = 1*(im<128)

s = trim.sum(axis=axis)

# 寻找连通域

s_labels,s_nbr = measurements.label(s>(0.5*max(s)))

# 计算各连通域的质心

m = measurements.center_of_mass(s,s_labels,range(1,s_nbr+1))

# 对质心取整,质心即为相线条所在位置

x = [int(x[0]) for x in m]

# 只要检测到 4 条粗线,便在这 4 条粗线之间添加直线

if len(x)==4:

dx = diff(x)

x = [x[0],x[0]+dx[0]/3,x[0]+2*dx[0]/3,

x[1],x[1]+dx[1]/3,x[1]+2*dx[1]/3,

x[2],x[2]+dx[2]/3,x[2]+2*dx[2]/3,x[3]]

if len(x)==10:

return x

else:

raise RuntimeError('Edges not detected.')

首先对图像进行阈值化处理,对灰度值小于 128 的暗区域赋值为 1,否则为 0;然后在特定的方向上(如 axis=0 或 1)对这些经阈值处理后的像素相加求和。Scipy.ndimage 包含 measurements 模块,该模块在二进制或标记数组中对于计数及测量区域是非常有用的。首先,labels() 找出二进制数组中相连接的部件;该二进制数组是通过求和后取中值并进行阈值化处理得到的。然后,center_of_mass() 函数计算每个独立组件的质心。你可能得到 4 个或 10 个点,这主要依赖于数独平面造型设计(所有的线条是等粗细的或子网格线条比其他的粗)。在 4 个点的情况下,会以一定的间隔插入 6 条直线。如果最后的结果没有 10 条线,则会抛出一个异常。sudokus 文件夹里包含不同难易程度的数独图像,每幅图像都对应一个包含数独真实值的文件,我们可以用它来检查识别结果。有一些图像已经和图像的边框对齐,从中挑选一幅图像,用以检查图像裁剪及分类的性能:

imname = 'sudokus/sudoku18.jpg'

vername = 'sudokus/sudoku18.sud'

im = array(Image.open(imname).convert('L'))

# 查找单元格边界

x = find_sudoku_edges(im,axis=0)

y = find_sudoku_edges(im,axis=1)

# 裁剪单元格并分类

crops = []

for col in range(9):

for row in range(9):

crop = im[y[col]:y[col+1],x[row]:x[row+1]]

crops.append(compute_feature(crop))

res = svm_predict(loadtxt(vername),map(list,crops),m)[0]

res_im = array(res).reshape(9,9)

print 'Result:'

print res_im

找到边界后,从每一个单元格提取出 crops。将裁剪出来的这些单元格传给同一特征提取函数,并将提取出来的特征作为训练数据保存在一个数组中。通过 loadtxt()读取数独图像的真实标记,用 svm_predict() 函数对这些特征向量进行分类,在控制台上打印出的结果应该为:

Accuracy = 100% (81/81) (classification)

Result:

[[ 0. 0. 0. 0. 1. 7. 0. 5. 0.]

[ 9. 0. 3. 0. 0. 5. 2. 0. 7.]

[ 0. 0. 0. 0. 0. 0. 4. 0. 0.]

[ 0. 1. 6. 0. 0. 4. 0. 0. 2.]

[ 0. 0. 0. 8. 0. 1. 0. 0. 0.]

[ 8. 0. 0. 5. 0. 0. 6. 4. 0.]

[ 0. 0. 9. 0. 0. 0. 0. 0. 0.]

[ 7. 0. 2. 1. 0. 0. 8. 0. 9.]

[ 0. 5. 0. 2. 3. 0. 0. 0. 0.]]

这里使用的只是其中较简单的图像,请尝试对一些别的数独图像进行识别,看看识别准确率如何,以及分类器在哪些地方出现识别错误。

如果你用一个 9×9 的子图绘制这些经裁剪后的单元格,它们应该和图 8-7(右图)类似。

图 8-7:一个检测并裁剪这些数独网格区域的例子:一幅数独网格图像 ( 左 );9×9 裁剪后的图像,每个独立单元都会被送到 OCR 分类器中 ( 右 )

8.4.5 图像校正

如果你对上面分类器的性能还算满意,那么下一个挑战便是如何将它应用于那些没有对齐的图像。这里我们将用一种简单的图像校正方法来结束本章数独图像识别的例子,使用该校正方法的前提是网格的 4 个角点都已经被检测到或者手工做过标记。图 8-8(左)中是一幅在进行识别时受角度影响剧烈的图像。

一个单应矩阵可以像上面的例子那样映射网格以使边缘能够对齐,我们这里所要做的就是估算该变换矩阵。下面的例子手工标记 4 个角点,然后将图像变换为一个1000×1000 大小的方形图像:

from scipy import ndimage

import homography

imname = 'sudoku8.jpg'

im = array(Image.open(imname).convert('L'))

# 标记角点

figure()

imsshow(im)

gray()

x = ginput(4)

# 左上角、右上角、右下角、左下角

fp = array([array([p[1],p[0],1]) for p in x]).T

tp = array([[0,0,1],[0,1000,1],[1000,1000,1],[1000,0,1]]).T

# 估算单应矩阵

H = homography.H_from_points(tp,fp)

# 辅助函数,用于进行几何变换

def warpfcn(x):

x = array([x[0],x[1],1])

xt = dot(H,x)

xt = xt/xt[2]

return xt[0],xt[1]

# 用全透视变换对图像进行变换

im_g = ndimage.geometric_transform(im,warpfcn,(1000,1000))

3 章中对很多样本图像进行的仿射变换还达不到对这些数独图像进行校正的要求,这里用到了 scipy.ndinmage 模块中一个更加普遍的变换函数 geometric_transform(),该函数获取一个 2D 到 2D 的映射,映射为另一个二维来取代变化矩阵,所以我们需要一个辅助函数(该例中用一个三角形的分段仿射变换),变换后的图像如图 8-8 中右图所示。

图 8-8:用全透视变换对一幅图像进行校正的例子。四个角点被手工标记的数独原图(左),变换为 1000×1000 大小的方形图(右)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2123947.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

2024最新精选文章!分享5款论文ai生成软件

在2024年&#xff0c;AI论文生成软件的出现极大地提升了学术写作的效率和质量。这些工具不仅能够帮助研究人员快速生成论文草稿&#xff0c;还能进行内容优化、查重和排版等操作。以下是五款值得推荐的AI论文生成软件&#xff0c;其中特别推荐千笔-AIPassPaper。 ### 千笔-AIPa…

shader 案例学习笔记之step函数

step函数 step(edge,x)&#xff1a;当x>edge时返回1&#xff0c;否则返回0 #ifdef GL_ES precision mediump float; #endifuniform vec2 u_resolution;void main(){vec2 st gl_FragCoord.xy/u_resolution.xy;float f step(0.5, st.x);gl_FragColor vec4(f, 0, 0, 1.0); …

JQuery中的$

}); 当jquery.color.js动画插件加载完毕后&#xff0c;单击id为“go”按钮时&#xff0c;class为block的元素就有了颜色动画变化。 $.getJSON() $.getJSON()方法用于加载JSON文件&#xff0c;与$.getScript()方法的用法相同。 我们来看demo2. demo2.html 已有评论&#xff1…

Linux下如何使用CMake实现动态库的封装与调用

一、动态库的封装 1.创建工程 首先创建一个qt工程&#xff08;这里我采用的是ui工程&#xff09; 这里选择Widget工程 名字取一个和动态库相关的即可&#xff0c;我这里取的UIDLL 这里选择CMake 这里我选择命名为Dynamic kits采用Qt 5.14.2 GCC 64bit&#xff0c;之后直接下一…

Qt常用控件——QLabel

文章目录 QLabel核心属性文本格式演示显示图片文本对齐自动换行、边距、缩进设置伙伴 QLabel核心属性 QLabel是显示类控件&#xff0c;可以用来显示文本和图片 属性说明textQLabel中的文本textFormat文本格式Qt::PlainText纯文本Qt::RichText富文本&#xff08;支持html标签&…

html+css网页设计 旅游 雪花旅行社5个页面

htmlcss网页设计 旅游 雪花旅行社5个页面 网页作品代码简单&#xff0c;可使用任意HTML辑软件&#xff08;如&#xff1a;Dreamweaver、HBuilder、Vscode 、Sublime 、Webstorm、Text 、Notepad 等任意html编辑软件进行运行及修改编辑等操作&#xff09;。 获取源码 1&#…

Windows下meson编译libplacebo库

1、安装msys64&#xff0c;添加系统环境变量C:\msys64 2、修改msys64目录下msys2_shell.cmd文件&#xff1a; 去掉“rem set MSYS2_PATH_TYPEinherit” 中rem&#xff0c;以便于shell能继承系统环境变量&#xff0c;然后保存 rem To export full current PATH from environme…

ESP32 TCP通信交换数据Mixly Arduino编程

TCP通信交换数据 在ESP32与ESP32或其它局域网络内主机间传输数据时&#xff0c;TCP是很方便的&#xff0c;特别当我们连接互联网后ESPnow不能用&#xff0c;MQTT又不稳定发送大量的数据&#xff0c;同时蓝牙有其它用途时&#xff0c;那么学会TCP通信协议就变得十分重要。 一、…

Python数据结构集合的相关介绍

集合是一种无序、可变的数据结构&#xff0c;它也是一种变量类型&#xff0c;集合用于存储唯一的元素。集合中的元素不能重复&#xff0c;并且没有固定的顺序。在Python 提供了内置的 set 类型来表示集合&#xff0c;所以关键字set就是集合的意思。 你可以使用大括号 {} 或者 …

pytest 生成allure测试报告

allure的安装 github地址 allure资产列表 windows下载.zip&#xff0c;解压并配置环境变量PATH&#xff1b;linux下载tar.gz&#xff0c;解压配置&#xff1b; allure作为pytest插件 # 安装 pip install allure-pytest# 执行单元测试&#xff0c;生成allure测试数据&…

如何在内网中与阿里云服务器进行文件传输?[2024详细版]

随着云计算发展&#xff0c;企业和个人选择将数据存储在云端&#xff0c;以提高数据的安全性和可访问性。阿里云作为国内领先的云服务提供商之一&#xff0c;提供了多种云产品和服务。其中&#xff0c;云服务器ECS&#xff08;Elastic Compute Service&#xff09;因其灵活性和…

网络初识-相关概念

本篇主要介绍关于网络的相关概念~ 相关概念 局域网&#xff1a; 把几个电脑连接到一起&#xff0c;或者几台电脑连接到同一个路由器&#xff0c;就能构成局域网&#xff0c;局域网中的电脑可以相互通信。 广域网&#xff1a; 将多个局域网连接起来&#xff0c;就构成了范围更…

以一种访问权限不允许的方式做了一个访问套接字的尝试

System.Net.Sockets.SocketException: 以一种访问权限不允许的方式做了一个访问套接字的尝试. 近来做的一个net core的网页&#xff0c;突然有这样的一个提示。上网查询之后&#xff0c;有二种可能&#xff0c;1&#xff0c;管理员角色运行VS2022后重新编译一下项目。2&#x…

9.10javaweb项目总结

1.创建吧 这里的话&#xff0c;是用的那个模态背景来写的&#xff0c;就是可以在原有界面上进行创建。目前就只有这些内容&#xff0c;具体一点就是吧吧的分类弄了一下&#xff0c;然后还有待完善&#xff0c;就是贴吧&#xff0c;吧头像的设置&#xff0c;还是有点问题的&…

AutoSar AP平台的SOMEIP文档的理解笔记

1. SOMEIP报文格式 1.1 SOME/IP消息格式&#xff1a;头格式 1.2 SOME/IP头格式&#xff1a;Request ID (Client ID/Session ID) 1.3 SOME/IP头格式&#xff1a;Message Type [8 Bit] and Return Code [8 Bit] 1.4 SOME/IP消息格式的大小端 1.5 SOME/IP消息格式&#xff1a;序列…

揭秘开发者的效率倍增器:编程工具的选择与应用

文章目录 每日一句正能量前言工具介绍功能特点&#xff1a;使用场景&#xff1a;提高工作效率的方式&#xff1a; 效率对比未来趋势后记 每日一句正能量 这推开心窗之人&#xff0c;可以是亲朋好友&#xff0c;也可以是陌客路人&#xff0c;可以是德高望重的哲人名流&#xff0…

Nexpose v6.6.266 for Linux Windows - 漏洞扫描

Nexpose v6.6.266 for Linux & Windows - 漏洞扫描 Rapid7 Vulnerability Management, release Aug 21, 2024 请访问原文链接&#xff1a;https://sysin.org/blog/nexpose-6/&#xff0c;查看最新版。原创作品&#xff0c;转载请保留出处。 作者主页&#xff1a;sysin.o…

JavaScript --while案例求一个数字的阶乘

求5*4*3*2*1的值 <!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8"><meta http-equiv"X-UA-Compatible" content"IEedge"><meta name"viewport" content"widthdevice-w…

Probabilistic Embeddings for Cross-Modal Retrieval 论文阅读

Probabilistic Embeddings for Cross-Modal Retrieval 论文阅读 Abstract1. Introduction2. Related work3. Method3.1. Building blocks for PCME3.1.1 Joint visual-textual embeddings3.1.2 Probabilistic embeddings for a single modality 3.2. Probabilistic cross-modal…

摩托车加装车载手机充电usb方案/雅马哈USB充电方案开发

长途骑行需要给手机与行车记录仪等设备供电&#xff0c;那么&#xff0c;加装USB充电器就相继在两轮电动车上应用起来了。摩托车加装usb充电方案主要应用于汽车、电动自行车、摩托车、房车、渡轮、游艇等交通工具。提供电动车USB充电器方案/摩托车加装usb充电方案/渡轮加装usb充…