哪里公司建设网站好宁波seo建站价格

当前位置: 首页 > news >正文

哪里公司建设网站好,宁波seo建站价格,网站建设制作设计seo优化珠海,武安网站建设价格使用Debate Dynamics在知识图谱上进行推理 摘要介绍背景与相关工作我们的方法 摘要 我们提出了一种新的基于 Debate Dynamics 的知识图谱自动推理方法。 其主要思想是将三重分类任务定义为两个强化学习主体之间的辩论游戏#xff0c;这两个主体提取论点#xff08;知识图中… 使用Debate Dynamics在知识图谱上进行推理 摘要介绍背景与相关工作我们的方法 摘要 我们提出了一种新的基于 Debate Dynamics 的知识图谱自动推理方法。 其主要思想是将三重分类任务定义为两个强化学习主体之间的辩论游戏这两个主体提取论点知识图中的路径目的是分别促进事实为真命题或事实为假对立面。基于这些论点一个二元分类器称为裁判决定事实是真是假。这两个代理可以被认为是稀疏的。对抗性特征生成器(Adversarial Feature Generator)为正题或反题提供可解释的证据。与其他黑盒方法相比这些论点允许用户了解法官的决定。 由于这项工作的重点是创建一种可解释的方法以保持有竞争力的预测准确性我们将我们的方法以三重分类和链接预测任务为基准。因此我们发现我们的方法在基准数据集FB15k-237、WN18RR和Hetionet上优于几个基线。我们还进行了一项调查发现提取的论点对用户来说是有信息的。 Debate Dynamics是一种用于推理的框架。它的主要目的是从知识图谱中自动提取和评估论点以支持决策制定和信息检索等任务。 Debate Dynamics可以自动从知识图谱中提取论点并将它们表示为辩论图该图包括论点和它们之间的关系。然后它将辩论图输入到论证框架中该框架使用论证理论来生成反驳和评估论点的强度。最后它可以根据论证框架的结果做出决策。 Debate Dynamics的优势在于它可以处理复杂的知识图谱并自动提取和评估论点。它还可以支持多种论证框架因此可以应用于各种不同的问题领域例如自然语言处理、信息检索和决策支持系统等。 Adversarial Feature Generator对抗特征生成器 是一种机器学习技术通常用于生成能够欺骗分类器的特征。它的基本思想是通过训练两个对抗的神经网络一个生成器和一个判别器从噪声中生成具有特定特征的样本以欺骗判别器使它无法准确识别样本的真实标签。 在Adversarial Feature Generator中生成器试图生成具有与真实样本类似的特征而判别器则试图区分生成的特征与真实样本的特征。这两个神经网络通过反复训练来提高自己的表现直到生成器可以生成与真实样本无法区分的特征为止。 介绍 关于现实世界的各种信息可以用实体及其关系来表达。 知识图谱KGs以三元组spo的形式存储关于世界的事实其中s主体和o对象对应于图中的节点p谓词表示连接两者的边类型。KG中的节点表示整个世界的实体谓词描述实体对之间的关系。 KGs可用于不同领域的各种人工智能任务如命名实体消除歧义、内部语言处理、视觉相关性检测或协作过滤。然而一个主要问题是大多数真实世界的KGs是不完整的即真实的事实缺失或包含虚假的事实。为解决这一问题而设计的机器学习算法试图根据观察到的连接模式来插入缺失的三元组或检测虚假事实。此外许多任务如问答或协作过滤可以在预测KG中的新链接方面进行模拟。 在KGs上进行推理的大多数机器学习方法都 将实体和谓词嵌入到低维向量空间中然后可以基于这些嵌入来计算三元组的合理性得分。大多数基于嵌入的方法的共同点是它们的黑盒性质因为它隐藏了用户对这个分数的贡献。当涉及到在现实世界中部署KGs时这种缺乏透明度的情况构成了一个潜在的限制。在机器学习领域可解释性最近引起了关注。与 一次性黑盒模型(one-way black-box) 相比可理解的机器学习方法能够构建机器和用户交互并相互影响的系统。 如果一个模型是一种一次性黑盒模型one-way black-box那么它只能用于生成输出而不能从输出推断出模型内部的实现方式或其他详细信息。这意味着我们无法通过观察输出来理解模型是如何进行决策的或者对特定输入做出响应的。 大多数可解释的Al方法可以大致分为两组后解释性post-hoc interpretability 和 集成透明度integrated transparency。 虽然后解释性旨在解释已经训练的黑盒模型的结果但基于集成透明度的方法要么采用 内部解释机制 要么由于 模型复杂性低 自然地可以被解释 例如线性模型。由于低复杂性和预测准确性往往是相互冲突的目标因此通常需要在性能和可解释性之间进行权衡。 这项工作的目标是设计一种具有集成透明度的KG推理方法该方法既不牺牲性能又 允许人类参与 。 后解释性post-hoc interpretability 指在模型已经训练好并且预测能力已经被评估之后对模型进行解释的过程。与之相对的是先解释性ante-hoc interpretability它是指在训练模型时就考虑到模型可解释性的过程。 后解释性的目的是为了让用户理解模型的决策过程和结果以便更好地理解模型的行为、检测模型的偏差和错误并为决策提供支持和解释。 Integrated Transparency集成透明度 指在机器学习中将可解释性与模型的其他性能指标集成在一起的方法。旨在实现模型的高性能和可解释性之间的平衡从而提高模型在实际应用中的可靠性和可信度。 集成透明度方法通常包括以下几个步骤 1.确定可解释性指标确定与模型可解释性相关的指标例如局部解释性、全局解释性和可视化等。 2.确定其他性能指标确定与模型其他性能指标相关的指标例如准确性、召回率和精确度等。 3.集成指标将可解释性指标和其他性能指标集成在一起以综合评估模型的性能。这可以通过加权平均、决策树或神经网络等方法实现。 4.解释性反馈根据集成指标的结果为用户提供解释性反馈以帮助他们理解模型的决策过程和结果。 Internal Explanation Mechanism内部解释机制(集成透明度中) 指在机器学习模型中添加一种用于解释模型决策过程的机制这种机制通常是由一系列规则、约束或者其他形式的知识表示来实现的。它可以帮助用户理解模型是如何做出决策的以及模型内部的特征和权重是如何影响模型决策的。 内部解释机制通常包括以下几个方面 特征重要性确定模型中每个特征对决策的影响程度。 规则和约束定义模型内部的规则和约束以支持对模型决策的解释。 可视化通过可视化方式展示模型内部的决策过程和特征影响。 解释性反馈为用户提供有关模型决策过程的解释性反馈。 模型复杂性低是指机器学习模型的结构和参数相对简单模型的计算和决策过程也相对容易理解和解释。这种模型通常具有较少的参数和较少的层数可以更快地训练和预测并且更容易被理解和解释。 允许人类参与(Allowing a human-in-the-loop)可以包括以下几个方面 数据标注人类可以对数据进行标注以帮助模型更好地理解和学习数据的特征和关系。 模型训练人类可以在模型训练的过程中提供反馈例如调整模型参数、选择特征等以改善模型的性能。 模型推断人类可以对模型的推断结果进行审核和纠错以提高模型的准确性和可靠性。 模型决策人类可以参与到模型的决策过程中例如提供决策依据、制定决策规则等以保证决策的合理性和可靠性。 本文介绍了一种基于强化学习的三重分类新方法——R2D2Reveal Relations using Debate Dynamics。受通过辩论增加Al的安全性的启发我们将三重分类任务建模为两个主体之间的辩论每个主体都提出了支持的论点三元组为真或相反的论点三元组错误。基于这些论点一个称为裁判的二元分类器决定事实是真是假。与大多数基于 表示学习 的方法不同论点可以显示给用户这样他们就可以追溯法官的分类并可能推翻判决或请求额外的论据。因此R2D2的集成透明机制不是基于低复杂性组件而是基于可解释特征的自动提取。 虽然深度学习使手动特征工程在很大程度上成为冗余但这一优势是以产生难以解释的结果为代价的。我们的工作是试图通过使用深度学习技术自动选择稀疏的、可解释的特征来打破这一循环。这项工作的主要贡献如下。 据我们所知R2D2构成了第一个基于辩论动力学的KGs推理模型。我们在数据集FB15k-237和WN18RR上对R2D2的三重分类进行了基准测试。我们的发现表明R2D2在准确性、PR AUC和ROC AUC方面优于所有基线方法同时更具可解释性。为了证明R2D2原则上可以用于KG完成我们还评估了它在FB15k-237子集上的链路预测性能。为了包括现实世界的任务我们在Hetionet上使用R2D2来寻找药物的基因-疾病关联和新的靶向疾病。R2D2在两个数据集上的标准测量 Representation learning表示学习 指一类机器学习方法旨在自动学习数据的特征表示以便更好地理解和处理数据。它通过学习数据的高层次特征表示可以实现更好的数据压缩、分类、聚类、生成等任务并且可以提高模型的泛化能力和鲁棒性。 表示学习可以自动从原始数据中学习特征表示避免了手工设计特征表示的过程并且可以适应不同的数据分布和任务需求。 表示学习通常分为两种类型有监督和无监督学习。有监督表示学习是指在有标签数据上学习特征表示例如卷积神经网络CNN在图像分类任务中学习特征表示无监督表示学习是指在无标签数据上学习特征表示例如自编码器Autoencoder在数据压缩和降维任务中学习特征表示。 背景与相关工作 为了指明三元组spo是真还是假我们考虑二元的特征函数。 对于所有spo∈KG我们假设即KG是一个为真的事实的集合。然而在XG中不包含三元组的情况下它并不意味着相应的事实是假的而是未知的开放世界假设。由于目前使用的大多数KG都是不完整的因为它们不包含所有的真三元组或者实际上包含虚假的事实因此许多经典的机器学习任务都与KG推理有关。 KG推理可以大致分为以下两个任务 缺失三元组的推理KG完成或链接预测预测三元组的真值三元组分类 虽然这些任务的不同表述通常在文献中找到例如完成任务可能涉及预测主体或对象实体以及一对实体之间的关系但在整个工作中使用以下定义。 许多对KG的机器学习的方法可以被训练在这两种设置中操作。例如一个三元组分类器 的形式为 导出了一种由给出的完成方法其中可以使用不同对象实体的函数值来产生排序。虽然R2D2的体系结构是为三元组分类设计的但我们证明了它原则上也可以在KG完成设置中工作。 Triple Classifier三元组分类器 指一种用于对知识图谱中三元组进行分类的算法或模型。 Triple Classifier的目标是对给定的三元组进行分类即判断该三元组是否正确或者是否存在错误。这种分类通常包括以下几个类别 正确的三元组表示该三元组在知识图谱中存在并且与实际世界的事实相符合。 错误的三元组表示该三元组在知识图谱中不存在或者与实际世界的事实不符合。 不确定的三元组表示该三元组的正确性无法确定需要进一步的验证和确认。 表示学习是一种有效且流行的技术是许多KG精化方法的基础。其基本思想是将实体和关系投影到低维向量空间中然后将三元组的可能性建模为嵌入空间上的函数。 最近提出了多跳推理方法 MINERVA这与我们的工作有很大关系其基本思想是向代理显示查询主题和谓词并让他们执行策略引导的遍历以找到正确的对象实体。MINERVA产生的路径也导致了某种程度的可解释性。然而我们发现只有积极挖掘论文和对立论点从而暴露辩论的双方才能让用户做出明智的决定。为这两个位置挖掘证据也可以被视为对抗性特征生成使分类器判断对矛盾证据或损坏的数据具有鲁棒性。 我们的方法 我们根据两个对立主体之间的距离来制定三元组分类的任务。 因此一个查询三元组对应于辩论的中心陈述。代理通过挖掘KG上的路径来进行这些路径为论文或对立面提供了证据。 更准确地说他们顺序遍历图并根据考虑 过去转换Past Transition 和查询三元组的策略选择下一跳。这个转换将添加到当前路径从而扩展参数。所有路径都由一个名为裁判的二进制分类器处理该分类器试图根据代理提供的参数来区分真三元组和假三元组。 辩论的主要步骤可以概括如下 辩论围绕着一个三元组问题向两个代理人提出。两位代理人轮流从KGs中提取路径作为论文和对立面的论据。裁判将自变量与查询三元组一起处理并估计查询三元组的真值。 当裁判的参数通过监督式学习来进行拟合的时候两个代理Agent都是通过强化学习Reinforcement Learning算法训练来实现在图中导航的。通过下面列出的固定范围决策过程对代理的学习任务进行建模。 Past Transition过去转化 指在逻辑推理中将一个谓词的过去时态转化为现在时态以便进行推理和推导。过去时态和现在时态在语法形式上有所不同但是它们在语义上是等价的可以互相转化。 在知识推理中经常需要使用过去时态描述过去的事件或状态但是在逻辑推理中过去时态无法直接参与推理。因此需要使用Past Transition将过去时态转化为现在时态以便进行推理和推导。例如将“John was a student”John曾经是学生转化为“John is a student”John是学生以便在推理过程中使用。 Past Transition通常包括以下几个步骤 识别谓词的过去时态首先需要识别谓词的过去时态形式例如“was”、“had”等。 转化为现在时态将过去时态转化为现在时态例如将“was”转化为“is”。 修改主语根据需要可能需要修改主语的人称和数以便与现在时态一致。 在机器学习中监督式学习是一种通过给定输入和输出数据训练模型来预测新数据的方法。在监督式学习中通常需要定义一个模型和一组参数然后通过训练数据来拟合这些参数使得模型能够准确地预测输出结果。 在评判者的场景中也需要使用模型和参数来评估和判断某个对象或行为的好坏。这些参数可以通过监督式学习的方法来进行拟合以实现更准确的评判和判断。