文章目录
- 强人工智能 AGI
- 人工智能的分类
- 深度学习
- AGI可能实现的一些证据
- 一种学习算法的假设
- 具体的例子
- 为什么人工智能如此高效
以下内容有任何不理解可以翻看我之前的博客哦
强人工智能 AGI
强人工智能也叫做通用人工智能,是人工智能学科发展的一个重要目标。
人工智能的分类
目前关于人工智能有很多误解,很大一个原因是因为不同的人对于人工智能的理解不同,人工智能其实分为两类。
第一种,ANI(artificial narrow intelligence),狭义人工智能,这种人工智能可以在某个独特的方向具有极高的水平,只做一件事。例如自动驾驶,智慧农场,智慧工厂等。在近几年,ANI的发展十分迅速并且创造了巨大的价值。由于ANI也是人工智能的一个子集,因此ANI的发展也大大促进了AI的发展。
第二种,AGI(artificial general intelligence),通用人工智能,这种人工智能有机会做到典型人类的程度,可以完成任何事情。目前通用人工智能仍然未能实现。
深度学习
随着现代深度学习的崛起,我们开始用计算机模拟神经元来训练人工智能,随着软硬件的发展,我们能模拟的神经元越来越多。从而使我们有一种期望,在某一天能够模拟人类大脑,可事实上没有那么简单,大致可以分为两种原因:
第一,我们模拟的神经元与真正的脑内神经元相比过于简单
第二,直到今天,我们也未能真正理解大脑的工作方式,因此模仿大脑也其实是无稽之谈。
综上所述,作者认为仅仅通过模仿大脑的工作方式从而实现AGI的可能性不大。
AGI可能实现的一些证据
一种学习算法的假设
近些年的一些动物实验发现,仅仅一个动物神经元就可以完成许多难以想象的任务,因此从而使得科学家猜测神经元的工作是否可以归因于一种或多种学习算法。如果我们能有一天弄清那是什么,或许我们某一天真的可以在计算机上实现它。
具体的例子
科学家在大脑负责听觉的区域进行试验,切断了这个区域与耳神经的联系(即切断了该神经元的输入),反而给其输入视觉信息,结果令人震惊的是这些神经元竟然开始学习如何“看”。这说明大脑许多部分的功能仅取决于你输入信息的种类。如果能够找到一种算法仅仅根据所给的数据就能,就能相应地学会处理输入
类似的例子还有,将摄像头看到的东西通过电压的方式传导到舌头,从而使舌头学会“看”;训练人类发出声音,从而学会海豚以及蝙蝠等的回声定位;运用触觉的方式让人类获得方向感;等等各种异想天开的实验。
总之,AGI是人工智能领域一个十分迷人的课题,也许有一天我们也会对其展开研究,但前提当然是我们能够正确认识它。
为什么人工智能如此高效
神经网络研究人员能够扩展神经网络的原因之一,在于神经网络的数据采用向量化的形式,它可以使用矩阵乘法从而高效地实现结果。事实证明,包括GPU在内的并行计算硬件非常擅长做非常大型的矩阵乘法。我们接下来了解神经网络的矢量化是如何实现的。
先看看我们以前不使用矩阵乘法时的代码是怎么写的:
x = np.array([200, 17])
W = np.array([[1, -3, 5],
-2, 4, -6]])
b = np.array([-1, 1, 2])
def dense(a_in, W, b):
a_out = np.zeros(units)
for j in range(units):
w = W[:,j]
z = np.dot(w,x) + b[j]
a[j] = g(z)
return a
说白了,就是你手动进行了一遍矩阵乘法,没什么技术含量。
再看看利用了矩阵乘法的代码:
X = np.array([[200, 17]])
W = np,array([[1, -3, 5],
[-2, 4, -6]])
B = np.array([[-1, 1, -2]])
def dense(A_in, W, B):
Z = np.matmul(W, X) + B
A_out = g(Z)
return A_out
注意,在使用矩阵乘法的时候,所有的数据都是采用二维数组的格式进行的。从代码量就可以看出,原本的代码缩短了好几行。但相比代码行数其实更重要的是运行速度快了非常多。
下一次的博客中,我们将详细地讲讲矩阵运算的方式以及代码实现。
为了给读者你造成不必要的麻烦,博主的所有视频都没开仅粉丝可见,如果想要阅读我的其他博客,可以点个小小的关注哦。