【导读】AI版本回归符号主义,有多少人工,就有多少智能!
ChatGPT掀起了一股「生成式AI」的浪潮,所有任务都可以通过对话的方式生成答案,实现了接口、模型架构的统一。
不过生成式AI也有缺陷,比如可控性很差,生成的结果经常是「胡编乱造」,非常难以预测、不可解释;在复杂推理方面表现不佳。
最近,著名AI学者、Robust.AI的创始人兼 CEO 、纽约大学的名誉教授Gary Marcus发表了一篇论文,对可信的生成式AI提出了16项能力要求。
论文链接:https://arxiv.org/ftp/arxiv/papersw2308/2308.04445.pdf
文中还讨论了如何结合「显性知识和经验法则」和大型语言模型,使推理引擎能够自动推导出所有知识的逻辑蕴涵。
Cyc知识工程
和模糊的语言推理不同,在AI发展的早期大多采用手写规则的方式实现各种任务。
Cyc项目始于1984年,开始的目标是把人类的上百万条常识编码为机器可用的形式,包括「每棵树都是植物」、「植物最终都会死亡」等基本知识,目前该知识库已经包含了320万条人类定义的断言,涉及30万个概念,15000个谓词。
Cyc 的主要推理机制类似于用「形式逻辑」表达的子句进行「定理证明」。
比如说给定一个场景:一个人看到自己的女儿迈出第一步(A person sees their daughter take her first step)。
此时AGI应该能够回答出「在这种情况下,那个人在笑吗?如果是的话,为什么?」(Is that person smiling, in that situation? And, if so, why?)
演绎推理的第一步是用逻辑表达情境和问题,设定3 个变量 p、d、e分别代表观看的人、女儿和行走事件;⋀是AND(逻辑与)的符号。
问题可以表示为:
假设还有一套「常识性」公理可用于连接情境和问题,用自然语言来表达的话就是:
A1. 人们爱自己的孩子 People love their children
A2. 如果你发现你爱的人取得了重大成就,你会感到高兴 If you find out that someone you love has accomplished something significant, it makes you happy
A3. 当一件事让你开心时,你会微笑 When something makes you happy, you smile
A4. 对人来说,迈出第一步是一项重大成就 Taking one’s first step is a significant accomplishment for people
A5. 如果你看到某些事件发生,你就会知道表演者和动作 If you see some event happening, you know the performer and the action
A6. 一个人的女儿也是他的孩子 A person's daughter is one of their children
假设这些经验法则都是默认为真,再结合否命题:
就可以逐步推理出一个全新的公理,并得出最终答案,进而回答出「为什么」。
Cyc项目的另一个优势是包含超1100个高级推理器,可以显著提升推理速度。
可信AI的十六个能力
Cyc知识库可以作为可信的知识源,辅助大型语言模型进行纠错,可以更好地实现可信人工智能(trustworthy AI)。
1. 可解释性(Explanation)
一个可信的AI不仅需要给出问题的答案,还要描述出答案生成背后的推理过程,例如用户可以反复追问一系列「为什么会这样」的问题,可以通过模型了解更多基础知识,并最终归结到第一性原理和「既定」的基本真理上。
模型在推理链中引用的每一个证据、知识、经验法则等,都需要给出其来源或出处。