论文阅读《Knowledge Collaborative Fine-tuning for Low-resource Knowledge GraphCompletion》

news/2024/7/7 15:17:28

论文链接

基于知识协同微调的低资源知识图谱补全方法

2022年3月发表于软件学报

是浙大prompt系列的一个延续

本文之前的工作:

AdaPrompt: Adaptive Prompt-based Finetuning for Relation Extraction

本文之后的工作:

Knowledge-aware Prompt-tuning with Synergistic Optimization for Relation Extraction

Relation Extraction as Open-book Examination: Retrieval-enhanced Prompt Tuning

与本文类似的也是用prompt做补全的论文:

Do Pre-trained Models Benefit Knowledge Graph Completion? A Reliable Evaluation and a Reasonable Approach

由清华提出来,发表于2022ACL

Introduction

基于知识指在进行模板构造时利用到手工模板。

协调微调指的是先调整模板和表达器最,等其收敛后再调全部参数。

低资源是因为prompt善于处理少样本学习任务。

然后整个模型是一个补全模型。

现有的知识图谱补全工作大多会假设知识图谱中的实体或关系有充足的三元组实例。

在通用领域,存在大量长尾三元组;在垂直领域,较难获得大量高质量的标注数据。

在关系预测的推理任务中,图谱中频率较高的关系明显优于频率较低的关系。
在关系抽取的补全任务中,预测精度随着关系的样本数目减少而大幅下降。

 知识图谱补全可以通过知识图谱的链接预测或者从语料文本中抽取新的关系来实现。

不同于这些工作,本文主要借助外部知识来构建提示,并在知识图谱补全任务中同时考虑知识图谱的显式知识语言模型隐式知识

模型示意

 对于prompt类型文章,我们还是从基线模型、模板、表达器、目标函数来看。

基线模型

文章表示模型适用于很多预训练模型,本文主要介绍的是bert。

模板(软硬结合、搜索)

将模板初始化为这样子,然后对其进行编码:

 得到hi,可学习的词向量参数:

最后优化它们。

表达器(离散、搜索)

 

 

 本文将BERT模型原先词表中的“[unused]”字替换成为本文的特殊标签字。

Method –协同学习算法 & 目标函数

总的来说,本文有两个目标函数:

关系判别目标函数𝒥R 实体判别目标函数𝒥E

关系判别函数让模型能够拟合在本文知识图谱补全任务的数据集上。

实体判别目标来训练通过句子中的其他信息理解实体的意思。

在模型输入中随机掩盖一个实体,然后利于预训练任务目标让语言模型去预测该实体。

最终目标函数
协同学习算法

1.首先基于知识驱动的模板构建和标签组合得到初始的提示(Prompt),并随机初始化其余部分待优化模板词和标签。

2.然后固定原始模型的所有参数,并只优化模板特殊字以及标签词特殊字{ℎ1, … , ℎ𝑚𝑚, . . , ℎ𝑚𝑚+𝑛𝑛}3-7 行)。

3.最后,优化模型全部的参数。(8-12 行)

Experiment

 

实验效果的话大致就是讲首先补全和关系抽取的效果好,其次prompt方法适合小样本学习,再就是虚拟标签词在3维空间与真实类别的语义距离近,然后就是消融实验证明每一个模块有效。

Comparison

与清华的PKCG对比:

1.PKCG使用分类头,KnowCo-Tuning使用表达器。

2.PKCG有额外的支持模板增强语义。

3.PKCG专门为每个关系类别设计模板。

4.两个模板都用到soft-prompt

5.KnowCo-Tuning可解释性差。

6.PKCG效果更好。

其中2和3都更好的利用语言模型的属性,模型效果有没有被规则限制待验证。

总结

总的来说这篇文章是比较早的prompt方式了,并且可解释性差,如果做这方面的工作可以再看看清华他们的PKCG,另外用预训练模型&prompt做关系抽取和图谱补全的任务相似,一般关系抽取的方法效果好,做补全可以把关系抽取的方法拿过来。


http://www.niftyadmin.cn/n/4411447.html

相关文章

北京几个区组成

北京由几个区组成北京,中华人民共和国首都,中央人民政府直辖市。建国后,北京市的行政区属有过多次变动,2006年,北京市辖16个市辖区、2个县。 市辖区 东城区 西城区 崇文区 宣武区 朝阳区 海淀区 丰台区 石景山区 门头沟…

论文阅读《Does William Shakespeare REALLY Write Hamlet? Knowledge RepresentationLearning with Confidenc》

Does William Shakespeare REALLY Write Hamlet? Knowledge Representation Learning with Confidence INTRODUCTION Q:可信的知识图谱构建方法去哪找? ①、传统的知识图谱构建方法通常需要大量的人工监督或专家标注,费时费力。 ②、自动化机制和众包在知识构…

北京的火车站

北京的火车站北京有4个火车站,分别是:北京站,北京西站,北京南站,北京北站。 下面是各个站的介绍: 北京站:北京站主要负责京沪线、京哈线的客运列车。 http://baike.baidu.com/view/49121.htm…

论文阅读《Relation Extraction as Open-book Examination:Retrieval-enhanced Prompt Tuning》

Relation Extraction as Open-book Examination: Retrieval-enhanced Prompt Tuning 浙大基于prompt的关系抽取最新论文,刷新prompt方法的SOTA。 因为之前对prompt类关系抽取方法已经做了很多介绍,所以现在直接看方法。 BACKGROUND 对于难度较大的实…

the answer to life, the universe and everything

the answer to life, the universe and everything is "42",or is "6*7?" 之前只是被电影里无限的英式幽默与哲思所吸引,但当看到deep thought面对历经千辛万苦来到它面前的主角们关于终极问题的提问时,爱理不理地说出“我一直都在…

HTML 元素的 ondragenter 事件

ondragenter EventDHTML文档教程Fires on the target element when the user drags the object to a valid drop target.dhtml语法Inline HTML<ELEMENT ondragenter "handler" ... >All platformsEvent propertyobject.ondragenter handlerJScript onlyobjec…

论文阅读《PTR: Prompt Tuning with Rules for Text Classification》

PTR: Prompt Tuning with Rules for Text Classification 提出背景 Prompt-oriented fine-tuning加速收敛&#xff0c;对少次学习很友好 Prompt-tuning收敛变慢&#xff0c;因为参数变少 Prompt痛点 Hard prompt设计麻烦 Auto prompt 效率太低 Soft prompt 需要大模型来…

javascript 操作 cookies

javascript 操作 cookies Cookies&#xff0c;有些人喜欢它们&#xff0c;有些人憎恨它们。但是&#xff0c;很少有人真正知道如何使用它们。现在你可以成为少数人中的成员&#xff0d;可以自傲的Cookie 大师。 如果你象作者一样记性不好&#xff0c;那么你可能根本记不住人们…