人工智能:投影是一种允许类似于人类推理的机制

(2022)。 实验与理论人工智能杂志。 印刷前。

几十年来,人工智能一直试图将常识性概念编纂成法典,例如在知识库中。 然而,它很难将概念推广到人类可能自然推广到的许多情况。 它还难以掌握所提供信息的明显和自然的后果。 结果是脆弱的系统无法应对超出原始设计的情况。 约翰·麦卡锡 (John McCarthy, 1968) 说,如果一个程序在给定信息并基于已知信息时能够自动确定直接后果,那么该程序就是常识。 这是一个尚未解决的问题。 Dreifus (1998) 指出,“常识”是了解世界上 30 到 5000 万个事实,并能够代表它们,以便您可以与其他人比较事件。 明斯基预测,常识需要在知识和世界事件之间进行类似匹配的能力,并且需要一种特定的知识表示来促进这些比较。 从基本概念的借用方式可以看出常识类比的重要性。 例如,时间延长的事件的尾部或大写“Q”或尾端(另请参见第 5.3.1 节中“包含”、“上”的示例)。 人工智能系统还必须根据已知事实(例如“一根绳子只能拉动一个物体,但不能推动它”),通过类比自动推断出一张床单、布料或丝带的行为类似于一根绳子。 该系统必须能够从石头可以打破窗户这一事实推断出任何类似的重物和坚硬的物体都可能会破坏任何类似的易碎材料。 用二段的语言。 这些事实中的每一个都必须被视为一个 Schema14,然后在新的案例中类推使用。

投影是一种允许发现类比的工具(见第 2 节),这有助于弥合常识概念模型(不是来自语言语料库的嵌入式知识)与文本、视觉或感觉运动信息之间的差距。对于 为此,概念可以表示为分层组合模型,其中较高级别描述较低级别组件中元素之间的关系。(出于第 6.1 节中讨论的原因)。这些子组件必须明确地符号化;它们不能纠缠在一个复杂的系统中 . 视觉对象识别的概念可以像组件特征之间的一组空间关系一样简单。然而,更高的概念需要复杂的模型,涉及多种类型的关系、物理的部分理论和因果关系。第 5.2 和 5.3 节中的示例给出了一个 这些概念可能看起来如何的想法,但对于一个完整的例子,需要单独的一篇论文。

一个完整的认知系统必须能够模拟和表示基于输入(例如文本或视觉)正在发生的事情。 有必要在工作空间中实例化概念,以便将相关细节添加到场景中。 有时,只有很少的信息可以用来填补某种情况的某个部分。 必须想象。 想象一台带有木箱的机器可以在表面上平稳移动。 观众看不到底部的机械装置,因此他们可能会认为它是在轮子上滚动。 如果它卡住了,人们可能会想象车轮撞到了一块石头。 如果有轮式汽车的模型可用,则可以将零件投影到模拟中。 轮子撞到岩石可以使用从以前的经验中抽象出来的模式来建模。 正在展开的模拟可以触发新的预测。 如果模拟是基于当前发生的事情,则传感器数据可用于限制模拟的可能性。 其他 AI 研究人员也承认类比在人类层面的认知主体的此类推理中的重要性(K. D. Forbus & Hinrichs 2006;Forbus 等人,2008)。

来源和详细信息:
https://www.tandfonline.com/doi/full/10.1080/0952813X.2022.2078889

By lausm

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *