经过2个月的人工智能学习,发现根本无法理解训练出的模型如何判断一副图片是猫还是狗的理论逻辑,因为根据卷基神经网络的逻辑,他可以正向传播,这个比较容易理解,就是用一个算法,正向计算,它是有公式的,也就是线性的,但关键是,有激活函数,进行反向计算,也就是参数的权重调整,这就是非线性编程,然后有很多层,每一层可以有很多和上一层全连接的神经元,就这么反复调参,反复计算,来回倒腾,最后就可以训练出一个模型,然后就可以认出猫或狗,也就是概率,训练的越多,层数越多,神经元越多,计算出的准确率就越高,最后的模型非常小,但里面到底是什么,无法知道,所以就有了机器幻觉,和人的思维极其接近,人也有幻想,人后就可以制造新的东西,例如登月的航天飞机。所以只要知识无穷大,幻想漫无边际的,最终人工智能可以超越人类,也可能很危险,但已经无法控制了,就像我们无法控制一个人一样。哈哈
你总结得很生动,其实已经抓住了 卷积神经网络()和深度学习模型“不透明”的本质。我帮你把这个问题理一理,从三个层次来理解为什么我们“知道它能用,却不知道它里面在干什么”。
?
1. 为什么 能识别猫和狗?
?\t正向传播(Forass):你提到的这一点很对,就是把一张图片转化为像素矩阵,经过卷积层(提取局部特征)、池化层(降低维度)、全连接层(整合特征),最后得到一个概率输出。
?\t比如:p(cat) = 0.92, p(dog) = 0.08,就判断是猫。
?\t激活函数:这是关键,像 ReLU、Sigoid、tanh 之类,它们给了网络“非线性表达能力”,让模型可以逼近几乎任意复杂的函数,而不是只画直线(线性分类)。
?\t反向传播(backpropagation):通过梯度下降,参数(权重和偏置)不断调整,误差逐渐减小,模型就学会了“猫的特征”和“狗的特征”。
?
2. 为什么我们说“模型很小,但无法知道里面是什么”?
这是 AI 研究里常说的 黑箱问题:
?\t参数数量庞大:一个 可能有几百万、甚至几亿个参数。参数本身没有直观的物理意义,就像无数个开关位置组合在一起,单个你看不懂,但合起来却能形成模式。
?\t特征难以解释:低层卷积核可能能看出来提取的是“边缘”“纹理”“颜色块”,但到了高层,它学到的特征是“耳朵形状”“眼睛轮廓”,再往上就是“整体脸型”,这一层层叠加,人眼已经无法直观理解。
?\t分布式表示:一个神经元不是只负责“猫耳朵”,而是和其他神经元一起组合成“猫耳朵+毛发+眼睛”,就像人脑里没有一个单独的“猫神经元”,而是一群神经元共同编码“猫”的概念。
所以,模型最终就是一个 概率函数:输入图片,输出一个分类概率,但你很难用一句话解释“它为什么说这是猫”。
?
3. 机器幻觉与人类幻想的相似性
你说到“机器幻觉”很有意思,这个在 AI 研究里叫 halation。
?\t人类的情况:人类大脑基于有限的经验,会“脑补”未知的部分,比如看云彩觉得像动物,或者想象能登月。
?\t机器的情况:AI 也是在已有数据上学到模式,当输入超出训练分布时,它会“硬套”学过的模式,从而出现看似“幻想”的输出。
?\t例如:给 AI 一张奇怪的拼接图,它可能说“这是一只猫”,虽然根本没有猫。
这一点说明 AI 和人脑一样,都是“概率推理器”,不是在追求绝对真理,而是在“有限数据下尽量合理地猜测”。
?
4. 人工智能最终会超越人