查看“WikiEdge:ArXiv-1711.08028”的源代码
←
WikiEdge:ArXiv-1711.08028
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
* '''标题''':Recurrent Relational Networks * '''中文标题''':循环关系网络 * '''发布日期''':2017-11-21 20:34:48+00:00 * '''作者''':Rasmus Berg Palm, Ulrich Paquet, Ole Winther * '''分类''':cs.AI *'''原文链接''':http://arxiv.org/abs/1711.08028v4 '''摘要''':本文主要研究如何学习解决需要一系列相互依赖的关系推理步骤的任务,例如回答有关对象之间关系的复杂问题,或解决其中解决方案的较小元素相互约束的谜题。我们引入了循环关系网络,这是一个通用模块,可以在对象的图形表示上进行操作。作为Santoro等人[2017]的关系网络的泛化,它可以增强任何神经网络模型的多步关系推理能力。我们在bAbI文本问题回答数据集上使用循环关系网络,取得了最新的结果,稳定解决了20/20的任务。由于bAbI在关系推理方面并不特别具有挑战性,我们引入了Pretty-CLEVR,这是一个新的关系推理诊断数据集。在Pretty-CLEVR的设置中,我们可以改变问题以控制获取答案所需的关系推理步骤的数量。使用Pretty-CLEVR,我们探索了多层感知器、关系和循环关系网络的限制。最后,我们展示了如何使用监督训练数据让循环关系网络学习解决数独难题,这是一个需要超过64步关系推理的挑战性任务。我们在相似方法中取得了最新的结果,解决了96.6%的最难数独难题。 == 问题与动机 == 作者的研究问题包括: * 如何构建一个能够进行多步[[关系推理]]的[[神经网络模型]]? * 如何在不同的[[数据集]]上验证提出的模型是否能够实现多步关系推理? * 如何在复杂的任务(如[[数独]]解谜)中应用提出的模型,并与现有方法比较其性能? == 背景介绍 == 这篇文献的背景主要集中在以下几个方面: # '''复杂问题解决的挑战''': #* 解决如[[数独]]等复杂问题需要进行多步的推理,传统的[[多层感知器]](MLP)和[[卷积神经网络]](CNN)在这类问题上表现不佳。 #* 这些[[深度学习]]方法通常在单次前向传播中输出整个解决方案,忽略了对象间相互影响的一致性。 # '''关系推理的引入''': #* [[Santoro]]等人提出的[[关系网络]]是朝向能够推理对象及其交互的简单模块的重要步骤,但它仅限于执行单一的关系操作。 #* 现有的模型在需要超过三步推理的数据集上表现不佳,这表明需要更复杂的关系推理能力。 # '''递归关系网络的提出''': #* 本文提出了[[递归关系网络]](RRN),它是一个通用模块,能够在图表示的对象上操作,增强了神经网络模型进行多步关系推理的能力。 #* 递归关系网络通过在每一步最小化输出和目标分布之间的[[交叉熵]],学习了一个收敛的消息传递算法,有助于解决[[梯度消失问题]],并提高了模型的稳定性。 # '''实验验证''': #* 通过在[[bAbI]]文本问答数据集上的实验,递归关系网络在所有20个任务上达到了最先进的结果。 #* 为了测试模型在需要更多推理步骤的任务上的表现,作者创建了[[Pretty-CLEVR]]数据集,并使用它来探究[[多层感知器]]、[[关系网络]]和[[递归关系网络]]的局限性。 #* 此外,作者还展示了递归关系网络如何通过监督训练数据学习解决[[数独]]难题,这是一个需要超过64步关系推理的挑战性任务。 综上所述,这篇文献的背景强调了在解决需要复杂关系推理的任务中,[[递归关系网络]]作为一种新型的[[深度学习]]模型,其在多个数据集上展现出的潜力和有效性。 == 章节摘要 == 这篇论文是关于学习解决需要一系列相互依赖的关系[[推理]]步骤的任务的研究,主要内容包括: # '''引言''': #* 强调了[[人类智能]]中抽象推理对象及其交互的能力,例如解决[[数独]]。 #* 对比了传统[[深度学习]]方法(如[[多层感知器]]和[[卷积神经网络]])与[[关系网络]]。 #* 介绍了递归关系网络([[Recurrent Relational Network]], RRN),一种用于多步关系推理的通用模块。 # '''递归关系网络''': #* 以解决数独谜题为例,解释了RRN如何在[[图表示]]上操作。 #* 描述了[[消息传递]]在图上的过程,包括节点如何发送和更新消息。 #* 介绍了[[监督训练]]的方法,包括[[损失函数]]的定义和收敛消息传递的重要性。 # '''实验''': #* 在[[bAbI]]文本问答数据集上实现了最先进的结果,解决了所有20个任务。 #* 引入了[[Pretty-CLEVR]]数据集,用于诊断关系推理。 #* 使用Pretty-CLEVR评估了多层感知器、关系网络和递归关系网络的局限性。 #* 展示了RRN如何通过监督训练数据学习解决数独谜题,并在最难的数独问题上达到了96.6%的解决率。 # '''讨论''': #* 提出了一种通用的关系推理模型,能够解决比当前技术更复杂的关系推理任务。 #* 讨论了在每一步都有损失函数可能带来的问题,以及模型如何避免陷入[[局部最小值]]。 #* 强调了模型的非贪婪多步算法的能力。 # '''相关工作''': #* 比较了关系网络和[[交互网络]]等现有模型与本文提出的模型。 #* 讨论了[[图神经网络]]和消息传递算法的相关文献。 #* 提到了将符号推理与亚符号分布式表示结合的方法。 #* 简要介绍了[[OptNet]]和[[CommNet]]等其他相关工作。 == 研究方法 == 这篇论文通过引入[[递归关系网络]](Recurrent Relational Networks, RRNs),来解决需要多步关系推理的任务。以下是该研究方法论的主要组成部分: # '''问题定义''': #* 针对需要多步关系推理的问题,例如解决复杂数独问题,或回答关于对象间关系的复杂问题。 #* 通过[[图表示法]]来操作对象,并在此基础上进行推理。 # '''递归关系网络(RRN)''': #* 作为[[关系网络]]的扩展,RRN能够为任何[[神经网络模型]]增加多步关系推理的能力。 #* 通过在图上递归地传递消息来实现关系推理,其中每个节点更新其状态以反映从其它节点接收到的信息。 # '''实验验证''': #* 在[[bAbI文本问答数据集]]上验证RRN,解决了全部20个任务。 #* 引入[[Pretty-CLEVR数据集]],用于诊断模型在多步关系推理上的性能。 #* 在数独问题上测试RRN,展示了模型能够通过[[监督学习]]解决数独难题。 # '''模型比较''': #* 将RRN与其他不同的可微分方法进行比较,包括[[循环置信传播]](Loopy Belief Propagation)等。 #* 展示了RRN在解决具有挑战性的数独问题上的有效性,解决了96.6%的最难数独问题。 # '''讨论与相关工作''': #* 讨论了RRN在多步关系推理中的潜在优势和可能的改进方向。 #* 将RRN与现有的关系网络、交互网络以及[[图神经网络]]等方法进行了比较。 #* 探讨了将[[符号逻辑]]与子符号分布式表示结合的相关工作。 这篇论文的方法论分析结果表明,递归关系网络是一个强大的模型,能够有效地处理需要复杂多步关系推理的任务,如数独解决和基于文本的问答系统。 == 研究结论 == 根据提供的文献内容,这篇论文的主要结论可以概括如下: # '''Recurrent Relational Networks的提出''':提出了一种新型的[[神经网络]]模块——[[循环关系网络]](Recurrent Relational Networks, RRN),它能够处理对象间关系的图表示,并进行多步关系推理。 # '''bAbI文本问答数据集''':使用RRN在[[bAbI文本问答数据集]]上取得了最先进的结果,成功解决了全部20个任务。 # '''Pretty-CLEVR数据集的创建''':为了测试需要更多步骤关系推理的任务,创建了[[Pretty-CLEVR数据集]],并使用该数据集来探究[[多层感知器]]、[[关系网络]]和循环关系网络的局限性。 # '''Sudoku难题的解决''':展示了RRN如何通过监督训练数据学习解决[[Sudoku]]难题,这是一个需要超过64步关系推理的挑战性任务,并在解决最困难的Sudoku难题上达到了96.6%的准确率。 # '''多步关系推理的验证''':通过在bAbI、Pretty-CLEVR和Sudoku三个不同的数据集上进行实验,证明了RRN在多步关系推理上的强大能力,并在这些任务上取得了最先进的结果。 # '''模型的改进和优化''':通过[[消融实验]],发现使用[[dropout]]和将问题编码附加到事实编码对于模型性能是重要的。 # '''模型的泛化能力''':RRN作为一个通用的关系推理模块,可以被添加到任何[[深度学习]]模型中,以增强其关系推理能力。 这些结论表明,循环关系网络在处理需要复杂关系推理的任务方面具有显著的潜力和效果。 == 术语表 == 这篇论文的术语表如下: * [[递归关系网络]](Recurrent Relational Networks):一种通用模块,用于在对象的图表示上操作,能够为任何神经网络模型增加多步关系推理的能力。 * [[关系推理]](Relational Reasoning):一种以对象和它们之间的相互作用为中心的问题解决方法,涉及多个步骤的推理过程。 * [[感知前端]](Perceptual Front-end):负责识别原始输入中的对象并以向量形式表示它们的模块。 * [[关系推理模块]](Relational Reasoning Module):使用对象的表示来推理对象及其相互作用的模块。 * [[消息传递]](Message Passing):在图上学习传递消息的过程,其中节点需要向同一行、列和3x3子网格中的其他节点发送消息。 * [[隐藏状态向量]](Hidden State Vector):在每个节点上,用于表示节点状态的向量,用于在消息传递过程中更新。 * [[消息函数]](Message Function):一种多层感知机,用于定义节点在每一步向其邻居发送的消息。 * [[节点更新]](Node Update):通过考虑所有传入的消息和节点的先前状态来更新节点的隐藏状态的过程。 * [[监督训练]](Supervised Training):通过引入每个节点的输出概率分布来训练网络,以便在每一步最小化输出和目标分布之间的交叉熵。 * [[收敛消息传递]](Convergent Message Passing):在训练过程中,每一步都考虑损失,以鼓励网络学习收敛的消息传递算法。 * [[bAbI 文本问答数据集]](bAbI Textual Question-Answering Dataset):由 Facebook 设计的基于文本的问答数据集,包含20种类型的任务,用于测试推理能力。 * [[Pretty-CLEVR]]:一个新的关系推理诊断数据集,包含需要不同步骤数量的关系推理的问题。 * [[Sudoku 拼图]](Sudoku Puzzles):一种需要超过64步关系推理的挑战性任务,用于测试网络的推理能力。 * [[多层感知机]](Multilayer Perceptron, MLP):一种前馈人工神经网络,用于处理分类和回归任务。 * [[长短期记忆网络]](Long Short Term Memory, LSTM):一种特殊的递归神经网络,用于处理和预测序列数据。 * [[图神经网络]](Graph Neural Networks):一种用于处理图结构数据的神经网络。 * [[循环关系网络]](Recurrent Relational Network):本文提出的模型,用于实现多步关系推理。 * [[逻辑和推理]](Logic and Reasoning):人工智能和机器学习中关于逻辑和推理的丰富文献。 * [[嵌入]](Embedding):在神经网络中,将一种类型的数据转换为另一种类型(通常是高维空间中的向量)的过程。 * [[优化]](Optimization):在机器学习中,找到最佳参数的过程,以最小化或最大化目标函数。 * [[自注意力机制]](Self-Attention Mechanism):一种允许模型在处理数据的不同部分时动态关注不同部分的机制。 * [[不同iable]](可微分的):在数学和机器学习中,如果函数的导数存在,则称该函数是可微分的。 == 参考文献 == # Santoro, A., Bartunov, S., Botvinick, M., Wierstra, D., & Lillicrap, T. (2017). A simple neural network module for relational reasoning. arXiv preprint arXiv:1706.01427. #* 提出了关系网络的概念,为本文提出的递归关系网络提供了理论基础。 # Scarselli, F., Gori, M., Tsoi, A. C., Hagenbuchner, M., & Monfardini, G. (2009). The graph neural network model. IEEE Transactions on Neural Networks, 20(1), 61-80. #* 介绍了图神经网络模型,对本文提出的递归关系网络的网络结构设计有重要影响。 # Battaglia, P., Pascanu, R., Lai, M., Jimenez Rezende, D., & others (2016). Interaction networks for learning about objects, relations and physics. In Advances in Neural Information Processing Systems (pp. 4502-4510). #* 提出了交互网络的概念,对本文中对象间交互的建模提供了参考。 # Lake, B. M., Salakhutdinov, R., & Tenenbaum, J. B. (2016). Building machines that learn and think like people. Behavioral and Brain Sciences, 39. #* 讨论了人类学习和思考的方式,对本文提出的模型的学习能力有启发作用。 # Norvig, P. (2006). Solving every Sudoku puzzle. arXiv preprint cs/0011047. #* 提供了解决数独问题的算法,为本文中数独问题的实验部分提供了对比。
返回
WikiEdge:ArXiv-1711.08028
。
导航菜单
个人工具
创建账号
登录
命名空间
项目页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
工具
链入页面
相关更改
特殊页面
页面信息