将规则转换为基于逻辑的计算机语言,德州仪器TI系统可执行逻辑推理

来源:时间: 2024-04-02

将规则转换为基于逻辑的计算机语言,德州仪器TI系统可执行逻辑推理

开发人员会将这些规则转换为基于逻辑的计算机语言,使得系统可执行逻辑推理。在Cyc中,专家是指人工将他们关于世界的知识转化为逻辑语句的人。Cyc的知识库比MYCIN的要大得多,Cyc的逻辑推理算法也更复杂,但这些项目有相同的核心理念:智能可通过在一个足够广泛的显性知识集合上运行人类编码的规则来获取。在当今由深度学习主导的人工智能领域内,Cyc是仅存的大规模符号人工智能的成果之一。有没有这样一种可能:只要付出足够多的时间和努力,Cycorp的工程师就真的能成功地获取全部或足够多的人类常识,不管这个“足够多”具体是多少?我对此保持怀疑。比如,很多处于我们潜意识里的知识,我们甚至不知道自己拥有这些知识,或者说常识,但是它们是我们人类所共有的,而且是在任何地方都没有记载的知识。这包括我们在物理学、生物学和心理学上的许多核心直觉知识,这些知识是所有我们关于世界的更广泛的知识的基础。如果你没有有意识地认识到自己知道什么,你就不能成为向一台计算机明确地提供这些知识的专家。此外,正如我在前一章中所指出的:我们的常识是由抽象和类比支配的,如果没有这些能力,我们所谓的常识就不可能存在。我认为:Cyc无法通过其大量事实组成的集合和一般逻辑推理来获得与人类拥有的抽象和类比能力相类似的技能。在我撰写本书时,Cyc已经走进了它的第四个十年。Cycorp及其子公司Lucid都在通过为企业提供一系列定制化的应用来实现Cyc的商业化,公司的网站有众多成功案例:Cyc在金融、油气开采、医药和其他特定领域的应用。在某些方面,Cyc的发展轨迹与IBM的沃森很相似:也是以充满远大前景和雄心壮志的基础人工智能研究为开端,辅以一系列夸张的营销声明,例如,宣称Cyc给计算机带来了类似于人类的理解和推理的能力6,但其关注的领域却是狭隘的而非通用的,并且关于系统的实际表现和能力也很少向公众透露。到目前为止,Cyc还没有对人工智能的主流研究产生太大的影响。此外,一些人工智能研究人员尖锐地批评了这一项目。例如,华盛顿大学的人工智能教授佩德罗·多明戈斯(Pedro Domingos)评价Cyc是“人工智能历史上最臭名昭著的失败案例”,麻省理工学院的机器人专家罗德尼·布鲁克斯稍微友善那么一点点,他说:“尽管Cyc是一次英勇的尝试,但它并未使得人工智能系统能够掌握对世界哪怕是一丁点儿简单的理解。”如果把那些我们在婴幼儿时期就学到的,构成了我们所有概念之基础的关于世界的潜意识知识,都输入计算机,那会怎么样?例如,我们是否可以教一台计算机关于物体的直觉物理学?多个研究团队已接受这一挑战,并正在构建能学习一些关于世界因果物理关系的知识的人工智能系统。他们的方法是从视频、电子游戏或其他类型的虚拟现实中进行学习。这些方法虽然很有趣,但目前为止只是朝着开发直觉核心知识方面迈出了一小步——与真实的婴儿所知道的相比。当深度学习开始展示其一系列非凡的成功时,不管是人工智能领域的内行还是外行,大家都乐观地认为我们即将实现通用的、人类水平的人工智能了。然而,正如我在本书中反复强调的那样,随着深度学习系统的应用愈加广泛,其智能正逐渐露出“破绽”。即便是最成功的系统,也无法在其狭窄的专业领域之外进行良好的泛化、形成抽象概念或者学会因果关系。此外,它们经常会犯一些不像人类会犯的错误,以及在对抗样本上表现出的脆弱性都表明:它们并不真正理解我们教给它们的概念。关于是否可以用更多的数据或更深的网络来弥补这些差距,还是说有某些更基本的东西被遗失了,人们尚未达成一致意见。我在最近发生的一些事中看到了这样一种转变:人工智能领域再一次越来越多地讨论关于赋予机器常识的重要性,微软联合创始人保罗·艾伦将其创立的艾伦人工智能研究所的研发预算增加了一倍,专门用于研究常识。政府资助机构也正对此采取行动,美国最主要的人工智能研究资助机构之一——美国国防部高级研究计划局公布了为人工智能常识研究提供大量资助的计划,计划中写道:“当前的机器推理仍然是狭隘且高度专业化的,大范围、常识性的机器推理仍然是难以达到的。这项资助计划将创建更类似人类的知识表征,例如,基于感知的表征,从而使得机器能够对物理世界和时空现象进行常识性推理。”


电话

185 0303 2423

微信

咨询

置顶