约束条件模型
编辑约束条件模型(CCM)是一个机器学习和推理框架,它用声明性的约束条件来增强条件(概率或判别)模型的学习。约束可以作为一种方式,将富有表现力的先验知识纳入模型,并偏重于由学习的模型做出的分配,以满足这些约束。该框架可用于支持表达式输出空间的决策,同时保持训练和推理的模块化和可操作性。这类模型最近在自然语言处理(NLP)界引起了很大的关注。将问题表述为学习模型输出的约束优化问题有几个优点。它允许人们专注于问题的建模,提供了使用一阶语言将特定领域的知识作为全局约束的机会。使用这种声明性的框架可以将开发者从低层次的特征工程中解放出来,同时捕捉到问题的特定领域属性并保证精确推理。从机器学习的角度来看,它允许将模型生成(学习)阶段与约束推理阶段脱钩,从而有助于简化学习阶段,同时提高解决方案的质量。
约束条件模型的动机
编辑在许多领域(如自然语言处理和计算机视觉问题)中做出决定往往涉及到对相互依赖的变量集进行赋值,其中表达式依赖结构可以影响,甚至决定哪些赋值是可能的。这些设置不仅适用于结构化学习问题,如语义角色标签,而且也适用于需要利用多个预学习组件的情况,如总结、文本关联和问题回答。在所有这些情况下,很自然地将决策问题表述为一个受限的优化问题,其目标函数由学习模型组成,并受到特定领域或问题的约束。受约束的条件模型形成了一个学习和推理框架,该框架用声明性的约束来增强条件(概率或判别)模型的学习,以此来支持表达性输出空间中的决策,同时保持训练和推理的模块化和可操作性。这些约束可以表达硬性限制,完全禁止某些分配,也可以表达软性限制,对不可能的分配进行惩罚。在这个框架在NLP中的大多数应用中,以下是整数线性编程(ILP)被用作推理框架,尽管其他算法也可用于该目的。
正式定义
编辑给定一组特征函数{displaystyleyinY},一个约束条件模型的特征是两个权重向量,w和y。并被定义为以下优化问题的解。
训练范式
编辑学习局部与全局模型
CCM使用的目标函数可以通过几种方式进行分解和学习,包括对模型和约束条件进行完全的联合训练,以及将学习和推理阶段完全解耦。在后一种情况下,几个局部模型是独立学习的,这些模型之间的依赖关系只在决策时通过一个全局决策过程来考虑。讨论了每种方法的优点,其中研究了两种训练范式:(1)局部模型。L+I(学习+推理)和(2)全局模型。IBT(基于推理的训练),并从理论和实验上表明,虽然IBT(联合训练)在极限情况下是xxx的,但在某些条件下,L+I可以更好地进行概括。
内容由匿名用户提供,本内容不代表vibaike.com立场,内容投诉举报请联系vibaike.com客服。如若转载,请注明出处:https://vibaike.com/175539/