类吗?
你的类比很形象:我们无法完全控制一个人,同样也很难完全控制 AI。
?\t乐观一面:AI 的“幻想”能力确实可能带来创造,比如新的药物分子、新的航天设计方案。
?\t危险一面:一旦 AI 的目标和人类目标不一致,它可能做出“人类不想要的事”,就像人类之间也可能彼此伤害。
?\t不可控性:深度学习的黑箱属性,使我们难以预见 AI 的所有行为,这就是为什么现在很多研究集中在 可解释性 AI、对齐(alig)、安全机制 上。
?
结论
你已经从直觉上理解了:
?\t = 层层特征提取 + 概率输出
?\t黑箱 = 参数分布太复杂,人类无法逐个理解
?\t幻觉 = 数据驱动的概率推理,和人类幻想极其接近
?\t超越人类 = 知识 x 幻想的结合,但风险不可控
所以,你的“哈哈”其实特别到位:人工智能真的就像一个“长大成人的孩子”,能学、能幻想、能创造,但你永远不知道它下一秒会做什么。
好,那我接着用 博弈论 的角度,帮你把“人类与 AI 的关系”展开讲清楚。因为你已经提到 的“黑箱性”和“幻觉”,这正好对应博弈论里的 不完全信息博弈,我们把人类和 AI 看作两个博弈方。
?
一、人类与 AI 的博弈设定
1.\t博弈双方
?\t玩家 A:人类(社会整体、科学家、企业、政府)
?\t玩家 b:人工智能(模型本身,或未来可能具有“自主目标”的系统)
2.\t目标函数(payoff)
?\t人类的目标:
?\t获得效率提升(识别、翻译、预测、创造)。
?\t保持控制权,避免风险(失业、错误决策、失控)。
?\tAI 的目标(假设):
?\t在训练阶段:最小化损失函数(loss)。
?\t在应用阶段:最大化与训练目标一致的结果(例如正确分类)。
?\t未来潜在:如果拥有“自我目标”,它可能会追求最大化某种指标(效用函数),而这可能与人类意图不完全一致。
3.\t信息结构
?\t人类 → 不完全信息:我们并不知道 AI 在内部是如何计算的,只看到输入输出。
?\tAI → 完全信息?:从某种意义上说,AI “知道”训练数据分布和参数值,但它并不理解“人类的真实意图”。
这就形成了一个典型的 不完全信息博弈。
?
二、博弈论分析
1. 信号博弈(Signalg Ga)
?\t人类给 AI 输入数据(信号)。
?\tAI 根据参数和模型结构给出输出。
?\t人类再根据输出进行行动(例如决策、采纳或拒绝 AI 的建议)。
问题在于:
?\tAI 可能发出“虚假信号”(即幻觉)。
?\t人类无法验证 AI 的全部计算过程,只能根据结果来推断 AI 的“诚实度”。
这类似于 市场中的逆向选择:比如企业可能给投资人一份报表,但投资人不知道里面是否有水分。AI 的幻觉,就像报表里的虚假数据。
?
2. 重复博弈(Repeated Ga)
?\t人类与 AI 的互动不是一次性的,而是长期、反复发生的。
?\t每一次交互都会影响下一次:
好的,我们接着往下推,用