《中国中文信息学会:知识图谱发展报告(2022)(252页).pdf》由会员分享,可在线阅读,更多相关《中国中文信息学会:知识图谱发展报告(2022)(252页).pdf(252页珍藏版)》请在三个皮匠报告文库上搜索。
1、 中国 北京 2022.08 知识图谱 !发展报告(2022)中国中文信息学会 语言与知识计算专委会 KNOWLEDGE GRAPH DEVELOPMENT REPORT 目录目录 序言序言 1 1 第一章第一章 知识表示与建模知识表示与建模 3 3 第二章第二章 知识表示学习知识表示学习 1313 第三章第三章 实体抽取实体抽取 2929 第四章第四章 实体关系抽取实体关系抽取 4141 第五章第五章 事件知识获取事件知识获取 5656 第六章第六章 知识融合知识融合 8282 第七章第七章 知识推理知识推理 9696 第八章第八章 知识图谱的存储和查询知识图谱的存储和查询 121121 第
2、九章第九章 通用和领域知识资源通用和领域知识资源 141141 第十章第十章 知识图谱质量评估与管理知识图谱质量评估与管理 163163 第十一章第十一章 基于知识的问答与对话基于知识的问答与对话 193193 第十二章第十二章 基于知识的搜索与推荐基于知识的搜索与推荐 213213 第十三章第十三章 知识图谱交叉前沿知识图谱交叉前沿 234234 1#当前人工智能正在经历从感知智能到认知智能的重要发展阶段。认知是人们获取和应用知识的过程,因此,作为人类对客观世界认知的一种表现形式,知识图谱是认知智能研究不可或缺的组成部分。知识图谱可以帮助机器积累人在解决问题中使用的知识,可以帮助组织互联网资
3、源,进而用知识赋能行业智能应用,知识图谱及其知识引擎技术已经成为人工智能系统的基础设施。知识图谱发展报告(2022)是中国中文信息学会语言与知识计算专委会邀请知识图谱领域专家结合人工智能和知识图谱技术的最新发展,在知识图谱发展报告(2018)基础上对本方向前沿技术和应用的又一次系统总结,并对未来前沿趋势进行展望。近年来,随着人工智能特别是大数据、深度学习和大规模预训练模型的快速发展,知识图谱的理论、方法和应用也有了很大进展。在知识表示和建模中,知识图谱表示形式更加多样化,从单一语言和符号表示的知识图谱,到多语言和多模态的知识图谱;从结构化知识表示发展到与半结构化和非结构化数据融合的概念-实体-
4、上下文一体化知识表示,从符号知识表示到融合符号和数值的知识表示。在知识获取方面,低资源、真实场景下的知识获取技术也有了长足进步,由传统限定领域的知识抽取,到如今开放领域的多类别知识抽取;由基于知识库的关系获取,到以知识为指导的面向大规模预训练技术的关系获取;由粗粒度有监督学习到细粒度小样本学习,以及由单一模态的概念抽取到跨模态的联合学习。在知识图谱应用方面,知识图谱领域应用越来越广泛,以多模态知识为驱动的虚拟数字人推动着人工智能走向更广阔的应用场景,“知识图谱+产业”的新范式凸显着以知识为中心的应用与现实业务的深度融合。“知识图谱+其他学科(如区块链、物联网)”的交叉研究也正在兴起和发展。知识
5、图谱未来发展趋势和面临的挑战在于,能否利用大规模预训练模型进一步促进知识表示、获取和推理技术的发展,能否基于认知推理实现具有认知能力的人工智能新架构,能否利用知识的可解释性释放更多产业潜能和应用。本发展报告的定位是深度科普,旨在向政府、企业、媒体中对知识图谱感兴趣的社会各界人士简要介绍相关领域的基本概念、基本方法和应用方向,向高等院校、科研院所和高新技术企业中从事相关工作的专业人士介绍相关领域的前沿技术和发展趋势。本报告共由 13 章组成,每一章按照 1)任务定义、目标和研究意义;2)研究内容和关键科学问题;3)技术方法和研究现状;4)技术展望与发展趋势等四部分的结构形成每一章 2 的内容。每
6、一章我们邀请了本专业领域内的专家协同撰写完成。具体结构如下:n 序言:李涓子(清华大学)、赵军(中国科学院自动化研究所)n 知识表示与建模:张文,耿玉霞,许泽众,陈华钧(浙江大学)n 知识表示学习:刘知远、汪华东(清华大学)n 实体抽取:林鸿宇、韩先培(中国科学院软件研究所)n 实体关系抽取:曾道建(湖南师范大学)、陈玉博、刘康(中国科学院自动化研究所)n 事件知识获取:丁效(哈尔滨工业大学)n 知识融合:胡伟(南京大学)、漆桂林(东南大学)n 知识推理:张小旺(天津大学)、李炜卓(南京邮电大学)、张文(浙江大学)、漆桂林(东南大学)n 知识图谱的存储和查询:彭鹏(湖南大学)n 通用和领域知识
7、资源:王昊奋(同济大学)、曹征晖(复旦大学)、林俊宇(中国科学院信息工程研究所)n 知识图谱质量评估与管理:李直旭(复旦大学)、王萌(东南大学)、漆桂林(东南大学)、阮彤(华东理工大学)n 基于知识的问答与对话:何世柱、张元哲、刘康(中国科学院自动化研究所)n 基于知识的搜索与推荐:程龚(南京大学)n 知识图谱交叉前沿:张文、毕祯,朱渝珊,李娟,陈卓,陈华钧(浙江大学)发展报告最后由刘康(中国科学院自动化研究所)、程龚(南京大学)、侯磊(清华大学)、张元哲(中国科学院自动化研究所)、吴天星(东南大学)、陆垚杰(中国科学院软件研究所)等根据反馈意见对初稿进行校对并统一成文。由于时间仓促,本报告难
8、免有疏漏甚至错误的地方,仅供有志于语言与知识计算研究和开发的同仁参考,并激发更广泛的思考和讨论。期待在我们的共同努力下,知识图谱以及语义计算技术能够取得更辉煌的成果。李涓子(清华大学)、赵军(中国科学院自动化研究所)2022 年 8 月 3$%&$%&()*+,-()*+,-张文2,耿玉霞1,许泽众1,陈华钧1 1.浙江大学 计算机科学与技术学院,浙江省 杭州市 310007;2.浙江大学 软件学院,浙江省 宁波市 315048!#$%&()*+,$%&()*+,&知识是人类通过观察、学习和思考有关客观世界的各种现象而获得和总结出的被广泛论证的正确的信息,知识具有三大特点:合理(Justi
9、fied)、真实(True)和被相信(Believed)。在人类社会中,知识表示将人类的认知知识以特定的形式进行描述、表达和传承,人类表示知识的形式多种多样,包括声音、文字、绘画、音乐、数学语言、物理模型以及化学公式等,这些丰富的知识表示方法让人类更准确地表达自己的认知,有力地促进了社会文明进步。对于机器而言,知识表示(Knowledge Representation,KR)将现实世界中的各类知识表达成计算机可存储和可计算的结构,使得计算机可以无障碍地理解所存储的知识。上世纪 90年代,MIT AI 实验室的 R.Davis 定义了知识表示的五大特点:l 客观事物的机器标识(A KR is a
10、 surrogate),即知识表示首先需要定义客观实体的机器指代或指称。l 一组本体约定和概念模型(A KR is a Set of ontological commitments),即知识表示还需要定义用于描述客观事物的概念和类别体系。l 支持推理的表示基础(A KR is a Theory of Intelligent Reasoning),即知识表示还需要提供机器推理的模型与方法。l 用于高效计算的数据结构(A KR is a medium of efficient computation),即知识表示也是一种用于高效计算的数据结构。l 人可理解的机器语言(A KR is a mediu
11、m of human expression),即知识表示需要接近人的认知,是人可理解的机器语言。自人工智能提出至今,知识表示已经探索过语义网络、专家系统、语义网、知识图谱等形态,形成了基于框架的语言、产生式规则、RDF 以及 OWL 等知识表示语言。近年来,人工智能依靠机器学习技术的进步,在数据感知方面取得了巨大的进步,可以精准地完成图像识别、语音识别等任务。但当前人工智能在语言理解、视觉场景分析、决策分析等方面依然面临巨大的挑战,其中一个关键挑战便是如何让机器掌握大量的知识,尤其是常识知识,这体现了知识表示的重要性。4-*+./0123456*+./0123456 根据知识呈现的形态和方式,
12、我们可以将知识分为不同的类型,包括本体知识、规则知识以及事件知识等。其中本体知识表达实体和关系的语义层次,用于建模领域的概念模型;规则知识表达实体和关系之间存在的推理规律,是更抽象的知识;事件知识包含多种事件要素,是更多维更复杂的知识。本章主要针对本体知识和规则知识的表示与建模展开三个方面的介绍,包括当前建模语言、建模工具以及应用实践示例。事件知识相关内容参见第五章。1.本体知识本体知识 在万维网中,我们可能会用不同的术语来表达相同的含义,或者一个术语有多个含义。因此,消除术语差异是很有必要的。目前较受欢迎的解决方案就是,对某个领域建立一个公共的本体,鼓励大家在涉及该领域的时候都使用公共本体里
13、的术语和规则。本体最先是哲学领域提出的研究概念,其作用主要是为了更好地对客观事物进行系统性的描述,即总结、提炼描述对象的共性,从而将客观事物抽象为系统化、规范化的概念或专业术语。概括而言,哲学本体关心的是客观事物的抽象本质。应用至计算机领域,本体可以在语义层次上描述知识,因此可以用于建立某个领域知识的通用概念模型,即定义组成“主题领域”的词汇表的“基本术语”及其“关系”,以及结合这些术语和关系来定义词汇表外延的“规则”Neches et al.,1991。具体来说,“领域”是指一个本体,描述的是一个特定的领域,如“大学”、“公司”等;“术语”指给定领域中的重要概念,例如大学这一领域中涉及的有教
14、工、学生、课程等概念;“基本术语之间的关系”包括类的层次结构(类比 taxonomy)等关系,比如大学师生员工中包含了教工和学生,学生又可分为本科生和研究生,教工同理,而学生和教工是两个并列的概念,该层次关系如下图 1 所示;“词汇表外延的规则”,则类似数据库中的“约束”,包括概念的属性约束(如 X 教 Y)、值约束(如只有教职人员才能授课)、不相交描述(如教职人员和普通员工不相交)以及对象间的逻辑关系规定(如一个系至少要有 10 个教职员工)等。图 1 学校领域概念及概念间层次关系 5 通过对事物所具有的概念、概念的关系、概念的属性及概念的约束等明确、清晰地描述,本体体现了客观事物内在、外在
15、的关系。从上述本体的定义中,我们可以看出本体四个重要的特点,即概念化、明确性、形式化和共享性。概念化是说本体表示的是各种客观存在的抽象模型,它并不描绘实体的具体形象而是表达出一个抽象的本质概念;明确性主要体现在描述客观事物时,利用自身概念化的表述优势和系统化的思想,准确地展示描述对象的特征;形式化则侧重使用特定的、严格规范化的、无歧义的语言对客观事物进行描述,以达到明确清晰的目的;共享性则是指本体所描述和表达的知识信息具有共享特性,希望能够被用户普遍认同并使用。而本体与知识图谱之间又有着什么样的联系呢?从逻辑结构上看,知识图谱一般可分为两层,数据层存储知识图谱中的所有三元组信息,模式层(也称
16、schema 层或本体层)位于数据层之上,对数据层知识结构进行提炼,即通过在模式层上建立约束和规则,可规范图谱中的实体、关系、实体属性、属性值之间的联系,以及完成在知识图谱上的推理。基于知识图谱,本体既可以以模式层的形式出现,表达数据层的抽象知识,也可以以数据层的形式出现,表达资源之间的约束关系,尤其是层次约束关系。2 2.规则知识规则知识 传统知识推理历史悠久,相对完备,其理论支持也比较完备,其所基于前提和规则更容易被理解,具有较好的解释性。其中,规则是传统推理中一种重要的方式,一般而言,知识图谱中的规则被表示为以下形式:head body 其中,body 表示规则的主体,head 表示规则
17、的头部,一条规则被表示为由主体推导出头部。规则头由一个二元的原子构成,而规则的主体则由一个或者多个一元原子或者二元原子所构成。原子就是包含了变量的三元组,其本身也有肯定和否定之分。如果主体中仅仅包含肯定的原子,那么这样的规则也可以被称之为霍恩规则。对于规则,其质量评价方法一般包括三种,分别为支持度(support),置信度(confidence),规则头覆盖度(head coverage)。支持度表示满足规则主体和规则头的实例的个数,即该规则在知识图谱中成立的实例数;置信度为满足规则主体的实例的个数和支持度的比值;规则头覆盖度即满足规则头部的实例数量和支持度的比值。基于以上指标,可以对规则的质
18、量有一个比较直观的判断。作为一种抽象知识,规则的典型应用是根据给定的一套规则,通过实际情况得出结论。这个结论可能是某种静态结果,也可能是需要执行的一组操作。应用规则的过程称为推理。如果一个程序处理推理过程,则该程序称为推理引擎。推理引擎是专家系统的核心模块。其 6 中,有一种推理引擎以规则知识为基础进行推理,其具有易于理解、易于获取、易于管理的特点,这样的推理引擎被称为“规则引擎”。789:;)*+=789:;)*+89?0A?89?0A?BCBC 近年来,本体知识建模利用自然语言处理、机器学习等技术从多源异构数据中进行自动化的构建取得了长足的进展。自动构建的过程中,如果数据是结构化的(例如图
19、表数据),已知属性名称、属性间的层次结构等,构建本体相对较为容易。如果缺乏以上信息,则只能通过文本信息等非结构化数据提炼知识构建本体,技术上将面临很多挑战。整体来看,呈现以下趋势:l 多模态数据及数据的结构化工作。随着数据资源的丰富,越来越多的本体构建工作需要处理多种模态的数据,进行模态融合和语义的对齐,例如,从图片或文本中提取出结构化的知识,进行语义对齐。l 低资源场景下的本体构建。由于标记数据的缺乏或相关领域数据保密的要求,本体的自动化构建面临小样本甚至是零样本的挑战,近年来的很多工作围绕小样本和零样本利用集成学习、多任务学习、预训练模型、元学习等技术结合深度学习模型进行探索。l 大规模本
20、体构建。随着算力的不断提升,现有实用系统可以有效处理更大规模的本体数据,数据量大、种类多样、结构不同都为本体构建带来巨大的挑战。规则引擎的发展也遇到了很多问题,需要在未来进一步研究和解决。主要问题如下:l 规则可视化配置。需要设计更高级的方案,让业务人员通过界面引导配置各种规则,而不是让技术人员从后台手动配置,彻底解放技术人员。l 规则执行的效率。在规则数量不断增加,业务数据被索引并不断增长的情况下,如何快速选择规则,做出快速准确的决策,不会使规则数量成为系统的瓶颈。l 规则的维护。当规则数量增加时,如何维护这些规则?更改规则时如何保证与之前发布的规则不冲突?规则能够更好的维护将使这些规则不会
21、相互干扰,相互独立。应用方面,随着企业智能化进程的加快,知识工程与产业互联的结合更加紧密,除了在数据治理、搜索与推荐、问答等通用领域有所突破之外,在智能生产、智慧城市、智能管理、智能运维等众多领域,以及工业、金融、司法、公安、医疗、教育等众多行业也都有进一步的场景化落地的突破。但落地的热潮在应对不同领域的知识建模需求时,需要行业专家与 AI技术人才进行深度的磨合和协作。参考文献参考文献 Neches et al.,1991 Neches R,Fikes R E,Finin T,et al.Enabling technology for knowledge sharingJ.AI magazin
22、e,1991,12(3):36-36.12 陈华钧 et al.,2011 陈华钧.基于本体推理的中医药五行诊疗系统:中国,CN102156801A P.2011-08-17.荣冈 et al.,2015 荣冈.一种基于本体构建模型的化工生产过程控制方法:中国,CN104678780A P.2015-06-03.13$.&()*/0()*/0 刘知远,汪华东 清华大学 计算机科学与技术系,北京 100084!#$%&()*+,$%&()*+,&知识表示是知识获取与应用的基础,因此知识表示学习问题,是贯穿知识图谱的构建与应用全过程的关键问题。人们通常以网络的形式组织知识图谱中的知识,网络中每
23、个节点代表实体(人名、地名、机构名、概念等),而每条连边则代表实体间的关系。然而,直接应用符号表示的知识图谱存在计算效率低、数据稀疏等诸多挑战性难题。近年来,以深度学习为代表的表示学习Bengio et al.,2013技术得到了广泛研究,在自然语言处理、图像分析和语音识别领域取得了巨大成功。表示学习旨在将研究对象的语义信息表示为稠密低维实值向量。在该低维向量空间中,两个对象距离越近,则说明其语义相似度越高。知识表示学习,则是面向知识图谱中的实体和关系进行表示学习。知识表示学习实现了对实体和关系的分布式表示,它具有以下主要优点:(1)显著提升计算效率)显著提升计算效率。知识图谱的三元组表示实际
24、就是基于独热表示的。如前所分析的,在这种表示方式下,需要设计专门的图算法计算实体间的语义和推理关系,计算复杂度高,可扩展性差。而表示学习得到的分布式表示,则能够高效地实现语义相似度计算等操作,显著提升计算效率。(2)有效缓解数据稀疏)有效缓解数据稀疏。由于表示学习将对象投影到统一的低维空间中,使每个对象均对应一个稠密向量,从而有效缓解数据稀疏问题,这主要体现在两个方面。一方面,每个对象的向量均为稠密有值的,因此可以度量任意对象之间的语义相似度。另一方面,将大量对象投影到统一空间的过程,也能够将高频对象的语义信息用于帮助低频对象的语义表示,提高低频对象的语义表示的精确性。(3)实现异质信息融合)
25、实现异质信息融合。不同来源的异质信息需要融合为整体,才能得到有效应用。例如,人们构造了大量知识图谱,这些知识图谱的构建规范和信息来源均有不同。大量实体和关系在不同知识图谱中的名称不同。如何实现多知识图谱的有机融合,对知识图谱应用具有重要意义。通过设计合理的表示学习模型,将不同来源的对象投影到同一个语义空间中,就能够建立统一的表示空间,实现多知识图谱的信息融合。综上,由于知识表示学习能够显著提升计算效率,有效缓解数据稀疏,实现异质信息融合,因此对于知识图谱的构建、推理和应用具有重要意义,值得广受关注、深入研究。14-*+./)123456*+./)123456 知识表示学习是面向知识图谱中实体和
26、关系的表示学习。通过将实体或关系投影到低维向量空间,我们能够实现对实体和关系的语义信息的表示,可以高效地计算实体、关系及其之间的复杂语义关联。这对知识图谱的构建、推理与应用均有重要意义。目前,已经在知识图谱补全、关系抽取等任务中取得了瞩目成果。但是,知识表示学习仍然面临很多挑战。1.复杂关系建模复杂关系建模 现有知识表示学习方法无法有效地处理知识图谱中的复杂关系。这里的复杂关系定义如下。按照知识图谱中关系两端连接实体的数目,可以将关系划分为 1-1、1-N、N-1 和 N-N 四种类型。例如 N-1 类型关系指的是,该类型关系中的一个尾实体会平均对应多个头实体,即我们将 1-N、N-1 和 N
27、-N 称为复杂关系。研究发现,各种知识获取算法在处理四种类型关系时的性能差异较大,在处理复杂关系时性能显著降低。如何实现表示学习对复杂关系的建模成为知识表示学习的一个难点。2.多源信息融合多源信息融合 知识表示学习面临的另外一个重要挑战如何实现多源信息融合。现有的知识表示学习模型仅利用知识图谱的三元组结构信息进行表示学习,尚有大量与知识有关的其他信息没有得到有效利用,例如:(1)知识图谱中的其他信息,如实体和关系的描述信息、类别信息等;(2)知识图谱外的海量信息,如互联网文本蕴含了大量与知识图谱实体和关系有关的信息。如何充分融合这些多源异质信息,实现知识表示学习,具有重要意义,可以改善数据稀疏
28、问题,提高知识表示的区分能力。3.关系路径建模关系路径建模 在知识图谱中,多步的关系路径也能够反映实体之间的语义关系。Lao 等人曾提出 Path-Constraint Random Walk Lao&Cohen et al.,2010、Path Ranking Algorithm Lao et al.,2011等算法,利用两实体间的关系路径信息,预测它们的关系,取得显著效果,说明关系路径蕴含着丰富信息。如何突破知识表示学习孤立学习每个三元组的局限性,充分考虑关系路径信息是知识表示学习的关键问题。4.时序信息建模时序信息建模 当前的知识图谱的研究主要集中在事实不随时间变化的静态知识图谱上,而对
29、于知识图谱的时序动态性则很少被研究。实际上,知识图谱的大量知识具有时效性,随着时间发展是动态变化的,如:美国总统在 2010 年是“贝拉克奥巴马”,在 2020 年是“乔拜登”。因此,15 对知识图谱中的时序信息建模是十分重要的。充分建模知识图谱富含的时序信息,利用时序分析和图神经网络等技术,对于分析图谱结构随时间的变化规律和趋势,以及知识推理都具有重要意义。5.模型知识增强模型知识增强 语言模型是自然语言理解的核心能力,以预训练语言模型 BERT、GPT 为代表的最先进的深度学习方法,仍然面临鲁棒性差、可扩展性差和可解释性差等问题。此外,语义的深度理解离不开多类型知识推理,因此建立面向预训练
30、语言模型的模型知识增强机制,是知识融合的关键科学问题。知识表示学习是构建结构化符号知识到深度语言模型的桥梁,如何低成本植入结构化知识到预训练语言模型增强模型的语义理解能力,是目前知识表示学习的热点方向。7789:;)*+=89:;)*+889?0A?BC9?0A?BC 近些年,虽然面向知识图谱的知识表示学习领域发展迅速,相关基础理论及其应用技术趋于完备,但是仍然存在许多挑战问题有待进一步研究,本节将对知识表示学习的未来方向 23 进行展望。面向不同知识类型的知识表示学习面向不同知识类型的知识表示学习。已有工作将知识图谱的关系划分为 1-1、1-N、N-1和 N-N 四类,这种关系类型划分略显粗
31、糙,无法直观地解释知识的本质类型特点。根据认知科学研究Kemp&Tenenbaum,2009;Tenenbaum et al.,2011,人类知识包括以下几种结构:(1)树状关系,表示实体间的层次分类关系;(2)二维网格关系,表示现实世界的空间信息;(3)单维顺序关系,表示实体间的偏序关系;(4)有向网络关系,表示实体间的关联或因果关系。认知科学对人类知识类型的总结,有助于对知识图谱中知识类型的划分和处理。未来有必要结合人工智能和认知科学的最新研究成果,有针对性地设计知识类型划分标准,开展面向不同复杂关系类型的知识表示学习研究。面向多源信息融合的知识表示学习面向多源信息融合的知识表示学习。在多
32、源信息融合的知识表示学习方面,相关工作还比较有限,主要是考虑实体描述的知识表示学习模型,以及文本与知识图谱融合的知识表示学习,这些模型无论是信息来源,还是融合手段都非常有限。我们认为在多源信息融合的知识表示学习方面,我们还可以对下列方面进行探索:(1)融合知识图谱中实体和关系的其他信息,知识图谱中拥有关于实体和关系的丰富信息,如描述文本、层次类型等。有机融合这些信息,将显著提升知识表示学习的表示能力;(2)融合互联网文本、图像、音频、视频信息,互联网海量文本、音频、视频数据是知识图谱的重要知识来源,有效地利用这些信息进行知识表示可以极大地提升现有知识表示方法的表示能力;(3)融合多知识图谱信息
33、,人们利用不同的信息源构建了不同的知识图谱。如何对多知识图谱信息进行融合表示,对于建立统一的大规模知识图谱意义重大。考虑复杂推理模式的知识表示学习考虑复杂推理模式的知识表示学习。考虑关系路径的知识表示学习,实际上是充分利用了两实体间的关系和关系路径之间的推理模式,来为表示学习模型提供更精确的约束信息。例如,根据三元组(康熙,父亲,雍正)和(雍正,父亲,乾隆)构成的“康熙”和“乾隆”之间“父亲+父亲”的关系路径,再结合三元组(康熙,祖父,乾隆),通过构建“父亲+父亲=祖父”的推理模式,提升知识表示的精确性。此外,知识图谱中还有其他形式的推理模式,例如三元组(美国,总统,奥巴马)和(奥巴马,是,美
34、国人)之间就存在着推理关系,但是两者的头、尾实体并不完全一致。如果能将这些复杂推理模式考虑到知识表示学习中,将能更进一步提升知识表示的性能。在该问题中,如何总结和表示这些复杂推理模式,是关键难题。目前来看,一阶逻辑是对复杂推理模式的较佳表示方案。超大规模知识图谱的知识表示学习超大规模知识图谱的知识表示学习。虽然已经出现了 GraphVite、OpenKE、DGL-KE、BigGraph 等知识表示学习开源工具,但这些工具还主要针对百万级实体规模以内的知识图谱,处理的最大知识知识图谱规模,这限制了大规模知识图谱的应用潜力。目前知识图谱的 24 规模越来越大,如 Wikidata 已经含有了超过
35、9 千万实体、14.7 亿的关系,而且这种规模仍然呈现快速增长趋势。如何将现有知识表示学习方法适配到千万级以上实体规模的图谱上仍然是一个挑战,需要解决在优化过程中大规模知识图谱的高质量负采样、模型多维并行训练机制(如数据并行、模型并行、流水并行等)以及并行训练中高效内存和通信管理等关键问题。大规模知识图谱的在线知识表示学习大规模知识图谱的在线知识表示学习。在实际中,知识图谱的规模不断扩大的,且知识信息也随着时间不短更新,如 DBpedia 每天提取维基百科的更新流,以保持其知识图谱包含最新信息,阿里的产品知识图谱需要相当频繁地更新,由于其电商平台每天都有大量的新产品上线。但是,现有的知识表示学
36、习方法主要是聚焦在静态的知识图谱忽略了知识图谱的动态性。此外,大规模知识图谱稀疏性很强,初步实验表明,已有表示学习模型在大规模知识图谱上性能堪忧,特别是对低频实体和关系的表示效果较差,根据知识图谱动态更新实体和关系表示突破该问题的重要途径。因此,我们需要设计高效的在线学习方案。除了充分融合多源信息降低稀疏性之外,我们还可以探索如何优化表示学习的方式,借鉴课程学习和迁移学习等算法思想,进一步改善知识表示的效果。参考文献参考文献 CIPS2018 中国中文信息学会语言与知识计算专委会.知识图谱发展报告(2018)第二章 知识表示学习C.2018:22-30.Ali et al.,2021 Ali
37、M,Berrendorf M,Hoyt C T,et al.PyKEEN 1.0:a Python library for training and evaluating knowledge graph embeddingsJ.Journal of Machine Learning Research,2021,22(82):1-6.Bengio et al.,2013 Bengio Y,Courville A,Vincent P.Representation learning:A review and new perspectivesJ.IEEE transactions on PAMI,20
38、13,35(8):1798-1828.Bordes et al.,2013 Bordes A,Usunier N,et al.Translating embeddings for modeling multi-relational dataC,in Proceedings of NIPS 2013,2787-2795.Boutouhami et al.,2019 Boutouhami K,Zhang J,Qi G,et al.Uncertain ontology-aware knowledge graph embeddingsC.Joint International Semantic Tec
39、hnology Conference.Springer,Singapore,2019:129-136.Chen et al.,2017 Chen M,Tian Y,et al.Multilingual knowledge graph embeddings for cross-lingual knowledge alignmentC,in Proceedings of IJCAI 2017:1511-1517.Chen et al.,2019 Chen X,Chen M,et al.Embedding uncertain knowledge graphsC,in 25 Proceedings o
40、f the AAAI.2019,33(01):3363-3370.Dasgupta et al.,2018 Dasgupta S S,et al.Hyte:Hyperplane-based temporally aware knowledge graph embeddingC,in Proceedings of EMNLP,2018:2001-2011.Dettmers et al.,2018 Dettmers T,Minervini P,Stenetorp P,et al.Convolutional 2d knowledge graph embeddingsC,in Proceedings
41、of AAAI.2018,32(1):1811-1818.Ding et al.,2020 Ding M,Zhou C,Yang H,et al.Cogltx:Applying bert to long textsJ,in Proceedings of NeurIPS,2020,33:12792-12804.Garca-Durn et al.,2018 Garca-Durn A,Dumancic S,Niepert M.Learning Sequence Encoders for Temporal Knowledge Graph CompletionC,in Proceedings of EM
42、NLP.2018.Gu et al.,2018 Gu Y,Yan J,Zhu H,et al.Language Modeling with Sparse Product of Sememe ExpertsC,in Proceedings of EMNLP 2018:4642-4651.Gu et al.,2015 Guo S,Wang Q,Wang B,et al.Semantically smooth knowledge graph embeddingC,in Proceedings of ACL-IJNLP 2015:84-94.Guo et al.,2016 Guo S,Wang Q,W
43、ang L,et al.Jointly embedding knowledge graphs and logical rulesC,in Proceedings of EMNLP 2016:192-202.Guo et al.,2018 Guo S,Wang Q,Wang L,et al.Knowledge graph embedding with iterative guidance from soft rulesC,in Proceedings of AAAI,2018,32(1):4816-4823.Guo et al.,2019 Guo L,Sun Z,Hu W.Learning to
44、 exploit long-term relational dependencies in knowledge graphsC,in Proceedings of ICML 2019:2505-2514.Guu et al.,2020 Guu K,Lee K,Tung Z,et al.Retrieval augmented language model pre-trainingC,in Proceedings of ICML 2020:3929-3938.Han et al.,2018a Han X,Cao S,Lv X,et al.Openke:An open toolkit for kno
45、wledge embeddingC,in Proceedings of EMNLP:system demonstrations.2018:139-144.Han et al.,2018b Han X,Liu Z,Sun M.Neural knowledge acquisition via mutual attention between knowledge graph and textC,in Proceedings of AAAI 2018.Han et al.,2021 Han X,Zhang Z,Liu Z.Knowledgeable machine learning for natur
46、al language processingJ.Communications of the ACM,2021,64(11):50-51.Ji et al.,2021 Ji S,Pan S,et al.A survey on knowledge graphs:Representation,acquisition,and applicationsJ.IEEE Transactions on Neural Networks and Learning Systems,2021.Jin et al.,2019 Jin W,Qu M,Jin X,et al.Recurrent event network:
47、Autoregressive structure inference over temporal knowledge graphsJ.arXiv preprint arXiv:1904.05530,2019.26 Kemp&Tenenbaum,2009 Kemp C,Tenenbaum J B.Structured statistical models of inductive reasoningJ.Psychological review,2009,116(1):20.Lao&Cohen et al.,2010 Lao N,Cohen W W.Relational retrieval usi
48、ng a combination of path-constrained random walksJ.Machine learning,2010,81(1):53-67.Lao et al.,2011 Lao N,Mitchell T,Cohen W.Random walk inference and learning in a large scale knowledge baseC,in Proceedings of EMNLP 2011:529-539.Lerer et al.,2019 Lerer A,Wu L,Shen J,et al.Pytorch-biggraph:A large-
49、scale graph embedding systemJ.arXiv preprint arXiv:1903.12287,2019.Leblay&Chekol,2018 Leblay J,Chekol M W.Deriving validity time in knowledge graphC/Companion Proceedings of the The Web Conference.2018:1771-1776.Lin et al.,2015a Lin Y,Liu Z,et al.Modeling Relation Paths for Representation Learning o
50、f Knowledge BasesC,in Proceedings of EMNLP 2015:705-714.Lin et al.,2015b Lin Y,Liu Z,Sun M,et al.Learning entity and relation embeddings for knowledge graph completionC,in Proceedings of AAAI 2015.Liao et al.,2021 Liao S,Liang S,Meng Z,et al.Learning dynamic embeddings for temporal knowledge graphsC
51、,in Proceedings of WSDM.2021:535-543.Mousselly-Sergieh et al.,2018 Mousselly-Sergieh H,Botschen T,Gurevych I,et al.A multimodal translation-based approach for knowledge graph representation learningC,in Proceedings of SEM.2018:225-234.Niu et al.,2020a Niu G,et al.AutoETER:Automated Entity Type Repre
52、sentation for Knowledge Graph EmbeddingJ.arXiv preprint arXiv:2009.12030,2020.Niu et al.,2020b Niu G,Zhang Y,Li B,et al.Rule-guided compositional representation learning on knowledge graphsC,in Proceedings of AAAI 2020,34(03):2950-2958.Nathani et al.,2019 Nathani D,Chauhan J,Sharma C,et al.Learning
53、Attention-based Embeddings for Relation Prediction in Knowledge GraphsC,in Proceedings of ACL 2019:4710-4723.Qian et al.,2018 Qian W,Fu C,Zhu Y,et al.Translating embeddings for knowledge graph completion with relation attention mechanismC,in Proceedings of IJCAI 2018:4286-4292.Sadeghian et al.,2021
54、Sadeghian A,Armandpour M,Colas A,et al.ChronoR:Rotation Based Temporal Knowledge Graph EmbeddingC,in Proceedings of AAAI 2021,35(7):6471-6479.Sun et al.,2018 Sun Z,Hu W,Zhang Q,et al.Bootstrapping entity alignment with knowledge graph embeddingC,in Proceedings of IJCAI 2018:4396-4402.27 Schlichtkrul
55、l et al,2018 Schlichtkrull M,Kipf T N,Bloem P,et al.Modeling relational data with graph convolutional networksC.European semantic web conference.Springer,2018:593-607.Sun et al.,2020a Sun T,Shao Y,Qiu X,et al.CoLAKE:Contextualized Language and Knowledge EmbeddingC,in Proceedings of ACL 2020:3660-367
56、0.Tenenbaum et al.,2011 Tenenbaum J B,Kemp C,Griffiths T L,et al.How to grow a mind:Statistics,structure,and abstractionJ.science,2011,331(6022):1279-1285.Trouillon et al.,2016 Trouillon T,Welbl J,Riedel S,et al.Complex embeddings for simple link predictionC,in Proceedings of ICML 2016:2071-2080.Tri
57、vedi et al.,2017 Trivedi R,Dai H,Wang Y,et al.Know-evolve:Deep temporal reasoning for dynamic knowledge graphsC,in Proceedings of ICML.PMLR,2017:3462-3471.Wang et al.,2014a Wang Z,Zhang J,Feng J,et al.Knowledge graph and text jointly embeddingC,in Proceedings of EMNLP.2014:1591-1601.Wang et al.,2014
58、b Wang Z,Zhang J,Feng J,et al.Knowledge graph embedding by translating on hyperplanesC,in Proceedings of AAAI 2014,28(1).Wang et al.,2019 Wang Z,Li L,Li Q,et al.Multimodal data enhanced representation learning for knowledge graphsC,in Proceedings of IJCNN 2019:1-8.Wang et al.,2019b Wang Q,Huang P,Wa
59、ng H,et al.CoKE:Contextualized knowledge graph embeddingJ.arXiv preprint arXiv:1911.02168,2019.Wang et al.,2021 Wang X,Gao T,et al.,KEPLER:A unified model for knowledge embedding and pre-trained language representationJ.TACL,2021,9:176-194.Xiao et al.,2016a Xiao H,et al.From one point to a manifold:
60、knowledge graph embedding for precise link predictionC,in Proceedings of IJCAI 2016:1315-1321.Xie et al.,2016a Xie R,Liu Z,Jia J,et al.Representation learning of knowledge graphs with entity descriptionsC,in Proceedings of AAAI 2016,30(1).Xie et al.,2016b Xie R,Liu Z,Luan H,et al.Image-embodied Know
61、ledge Representation LearningC,arXiv preprint arXiv:1609.07028,2016.Xie et al,2016c Xie R,Liu Z,Sun M.Representation learning of knowledge graphs with hierarchical typesC,in Proceedings of IJCAI.2016:2965-2971.Xin et al.,2018 Xin J,Lin Y,Liu Z,et al.Improving neural fine-grained entity typing with k
62、nowledge attentionC,in Proceedings of AAAI 2018.Xiong et al.,2019 Xiong W,Du J et al.,Pretrained Encyclopedia:Weakly Supervised Knowledge-28 Pretrained Language ModelC,in Proceedings of ICLR 2019.Xu et al.,2020 Xu C,Nayyeri M,Alkhoury F,et al.Temporal Knowledge Graph completion based on time series
63、Gaussian embeddingC,International Semantic Web Conference.Springer,Cham,2020:654-671.Yang et al.,2019 Yang S,Tian J,Zhang H,et al.TransMS:Knowledge Graph Embedding for Complex Relations by Multidirectional SemanticsC,in Proceedings of IJCAI.2019:1935-1942.Yang et al.,2021 Yang J,Xiao G,Shen Y,et al.
64、A Survey of Knowledge Enhanced Pre-trained ModelsJ.arXiv preprint arXiv:2110.00269,2021.Zhang et al.,2018 Zhang Z,Zhuang F,Qu M,et al.Knowledge graph embedding with hierarchical relation structureC,in Proceedings of EMNLP 2018:3198-3207.Zhang et al.,2019c Zhang Z,Han X,Liu Z,et al.ERNIE:Enhanced Lan
65、guage Representation with Informative EntitiesC,in Proceedings of ACL 2019:1441-1451.Zhang et al.,2020a Zhang Y,Fang Q,Qian S,et al.Multi-modal Multi-relational Feature Aggregation Network for Medical Knowledge Representation LearningC,in Proceedings of ACM Multimedia.2020:3956-3965.Zhang et al.,202
66、0b Zhang Y,Yao Q,Chen L.Interstellar:Searching Recurrent Architecture for Knowledge Graph EmbeddingJ,in Proceedings of NeurIPS 2020,33:10030-10040.Zhang et al.,2020c Zhang Z,Cai J,et al.Learning hierarchy-aware knowledge graph embeddings for link predictionC,in Proceedings of AAAI 2020.Zhang et al.,
67、2021 Zhang J,Wu T,Qi G.Gaussian Metric Learning for Few-Shot Uncertain Knowledge Graph CompletionC,DASFAA.Springer,2021:256-271.Zheng et al.,2020 Zheng D,Song X,Ma C,et al.DGL-KE:Training knowledge graph embeddings at scaleC,in Proceedings of SIGIR.2020:739-748.Zhou et al.,2017 Zhou X,Zhu Q,Liu P,et
68、 al.Learning knowledge embeddings by combining limit-based scoring lossC,in Proceedings of CIKM 2017:1009-1018.Zhu et al.,2019 Zhu Z,Xu S,Tang J,et al.Graphvite:A high-performance cpu-gpu hybrid system for node embeddingC,in Proceedings of WWW 2019:2494-2504.29$1&$1&23452345 林鸿宇,韩先培 中国科学院软件研究所 中文信息处
69、理实验室,100190!#$%&(0*+,$%&(0*+,&实体是世界构成的基本单元,文本中的实体是承载着文本信息的重要基本单位。一段文本中所蕴含的信息通常可以被表述为其所包含的实体以及实体之间的相互联系。例如,“美国白宫首席副新闻秘书卡琳让皮埃尔新冠检测结果呈阳性”中所包含的信息可以由句子中所提及的实体“美国”、“白宫”、“卡琳让皮埃尔”、“新冠”以及它们之间的相互关联所构成。而一个知识图谱通常是一个以实体为节点的巨大知识网络,包括实体、实体属性以及实体之间的关系。因此,上述文本中所蕴含的实体以及实体间关联信息是知识图谱中知识的最重要来源。实体抽取的主要目标是识别文本当中的实体提及,并将
70、其划分到指定的给定类别 Chinchor&Robinson,1998。常用实体类别包括人名、地名、机构名、日期等。例如,给定“美国白宫首席副新闻秘书卡琳让皮埃尔新冠检测结果呈阳性”以及待抽取的实体类别“人名”与“地名”,实体抽取模型需要识别出“卡琳让皮埃尔”是一个人名实体提及,“美国”是一个地名实体提及等。实体抽取是海量文本分析和知识图谱构建的核心技术,也是文本语义理解的基础,为解决信息过载提供了有效手段。互联网海量的文本数据中蕴含大量有价值的信息,针对性地挖掘并剔除无关与冗余的信息,可以帮助人类高效获取信息。通过以实体为核心建立海量信息的表示、关联和结构,实体抽取可以为互联网信息的挖掘提供高
71、效手段,为用户信息需求的精准满足提供基础支撑。实体抽取技术通过将文本结构化为以实体为中心的语义表示,为分析非结构化文本提供了核心技术手段,是实现大数据资源化、知识化和普适化的核心技术,已被广泛应用于舆情监控、网络搜索、智能问答等多个重要领域。-*+./0DE*+./0DE 实体抽取的主要研究对象是如何从文本中识别指定类别的实体。一个实体抽取系统通常包含两个部分:实体边界识别和实体分类,其中实体边界识别判断一个字符串是否组成一个完整实体,而实体分类将识别出的实体划分到预先给定的不同类别中去。实体抽取是一项自然语言处理的基础技术,目前中英文上通用的特定领域(人名、地名、机构名)实体抽取性能 F1
72、值都能达到 90%以上。然而,对于实体抽取而言,当下最核心的挑战是如何能够将限定领域上的优良表现迁移至开放领域,从而在众多不同的领域与类别上均实现较好的性 30 能。相比于传统的限定领域实体抽取,开放领域实体抽取面临以下几个核心挑战:1)类别开放类别开放:限定领域实体抽取通常只关注于非常稀少的特定实体类别。然而,开放域实体抽取需要处理为数众多、粒度不一的各种实体类别。为满足各领域的实体识别需求,命名实体的类别范围不断扩大。例如,语言数据协会根据华尔街日报的文章构建了包括了 64 个实体类别的 BBN 数据集,随后又构建了包括 87 个实体类别的 OntoNotes 数据集。Ling 等人从 F
73、reebase 中选取了 112 个实体类别作为识别目标并构建了一个细粒度实体抽取数据集 Ling&Weld,2012。Choi 等提出的极细粒度实体抽取,利用 WordNet 将实体扩充到了 10331 个粒度不一的开放类别 Choi et al.,2018。除了通用领域的命名实体识别,还有许多研究者针对特定领域进行了实体类别扩展。针对计算机科学领域,Jain 等提出了 SciREX 数据集,其中涵盖数据集、评价指标、任务和方法等四大类实体 Jain et al.,2020。针对生物领域,Li 等人根据 PubMed 的文章构造了 BC5CDR 数据集,重点关注疾病和化学药物实体 Li et
74、 al.,2016。众多的开放类别不仅数量不固定、粒度参差不齐,类别之间还具有上下位和共现关系等复杂关联。因此,传统的限定域实体抽取中孤立地考虑每个实体类别的方法是低效且不切实际的。2)实体结构复杂实体结构复杂:传统的限定领域实体抽取通常关注于平实体抽取(Flat NER),即不考虑实体提及中存在的嵌套、重叠以及不连续的情况。然而,对于开放领域的实体抽取而言,实体提及间存在复杂结构是非常常见的现象。例如“中华人民共和国教育部”中包含有“中华人民共和国教育部”和“中华人民共和国”两个不同的实体提及,而“心、肺功能异常”中则包含着“心功能异常”与“肺功能异常”两个不同的症状实体。这类复杂结构在开放
75、领域的实体抽取问题中分布非常广泛,而以 CRF 为代表的传统的实体抽取模型表达能力不足,很难建模上述复杂结构。3)标注资源缺乏标注资源缺乏:由于类别开放以及实体结构复杂的特点,我们很难为所有待抽取的实体类别构建足够数量的标注资源。因此,在开放实体抽取中有大量的实体类别仅有极少量的标注数据,只能提供极少量的信息。同时,虽然现在存在一定数量的外部标注/半标注实体抽取资源,但是这些资源通常标注质量较差,带有噪声,并且外部资源与任务目标可能存在知识不匹配的问题。因此,如何利用极少量的标注资源获得一个有效的实体抽取模型是开放领域实体抽取的又一大重要挑战。上述三个挑战是限制了实体抽取从限定域迈向开放域的核
76、心因素。近年来,实体抽取领域的研究工作大多围绕着解决上述三个挑战来进行的,而深度神经网络以及预训练语言模型的兴起为解决上述挑战带来了新的机遇。下面我们将简要介绍目前实体抽取领域的研究现状与发展趋势。31 77*+=0A?BC*+FGA?FGA?=实体抽取是自然语言处理最基本的技术之一。近年来,国内外众多著名人工智能厂商纷纷构建自己的人工智能开放平台和相应的开源工具,为其他行业提供人工智能服务。绝大多数相关的人工智能开放平台均对外提供有实体抽取的服务与接口,国内具有代表性的平台包括有百度 AI 开放平台、阿里灵杰、华为 AI 开放平台和腾讯 AI 开放平台等。除了在常见类别的限定域实体上,这些人
77、工智能开放平台还根据不同的业务场景,提供了法律、金融、医疗等诸多领域的领域特定实体抽取服务,帮助相关领域企业实现数字化、智能化转型。在开源工具方面,哈工大研发的 LTP 语言技术平台、复旦大学研发的 FudanNLP、斯坦福大学研发的 CoreNLP 和 Stanza、清华大学研发的 THULAC、HanNLP 以及 spaCy 工具包等在学术界和产业界均有着较大的影响力,这些开源工具一般都内置命名实体识别模型,但是通常仅支持对基本实体类型的识别,例如人名、地名、机构名等。因此,这些开源工具对于开放领域的实体抽取的支撑仍略显不足。由于实体抽取的基础性和重要性,实体抽取技术在众多领域都有着广泛的
78、应用。在新闻媒体领域,实体抽取技术能够帮助新闻采编工作更加高效。在法律服务领域,实体抽取技术通过识别法律文书中的法律术语等相关信息,构建法律领域知识图谱,对类案文书、法律规则、相应法条进行自动推荐,从而帮助法官从繁重的文书工作中解脱出来。在电商领域,实体抽取技术能够提取快递单据中的文本信息,并输出包含姓名、电话、地址等的结构化信息,帮助快递或电商企业提高单据处理效率。在医疗领域,实体抽取技术能识别电子病案中的医学实体,进而辅助医生及时发现病历书写中的缺陷,全面提升病历质量,帮助医院优化诊疗流程、提高诊疗效率和全面提高医疗质量。此外,实体抽取技术也是构建行业知识图谱的关键技术。例如,在汽车领域,
79、针对汽车这种属性较多的 35 实体领域,汽车知识图谱可以将不同品牌、不同型号的汽车产品信息整合,为消费者提供全面的导购服务;在政务领域,利用实体抽取技术构建知识图谱可以聚合政策信息,提供统一的数据访问视图,支撑高效政务搜索和问答,提升政务处理效率;在油气勘探领域,基于勘探知识图谱可以提供丰富的油气应用,例如语义搜索、油气知识推荐等,支撑油气勘探开发、降本增效等;在各行业的客服领域,构建基于知识图谱的多轮对话系统,可以分析用户对话中的实体和关系,根据实体和关系进行知识图谱的查询和推理,从而选择相应的对话策略,减少人工成本,提高工作效率等。HHIJ0?IJ0?实体抽取是自然语言处理与知识图谱领域的
80、基础性技术。近年来,实体抽取领域逐渐从限定领域迈向开放领域,由此面临着类别开放、实体结构复杂、标注资源缺乏等的重要挑战。近年来,深度学习和大规模预训练语言模型的兴起已经为实体抽取领域带来了范式级别的改变。这种深刻的改变体现在模型架构、学习算法与模态融合等多个层面,并显著地改变了实体抽取领域的技术发展路线。然而在当下,开放领域的实体抽取仍然面临着诸多挑战,大模型对于实体抽取领域的影响还远远没有完全展现出来。在未来,如何设计出更通用、有效、高速的模型架构,如何更充分地利用现有资源,使得实体抽取模型具有更快速的跨类别泛化能力,如何更好的实现多模态多语言的打通融合,都将是实体抽取领域在大模型时代所面临
81、的重要挑战。参考文献参考文献 Abhishek et al.,2017 Abhishek Abhishek,Ashish Anand,Amit Awekar.Fine-grained entity type classification by jointly learning representations and label embeddings.In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics:Volume 1,Long
82、 Papers,pages 797807,Valencia,Spain,2017.Chinchor&Robinson,1998 N.Chinchor,P.Robinson.MUC-7 named entity task definition(version 3.5).In Seventh Message Understanding Conference(MUC-7):Proceedings of a Conference Held in Fairfax,Virginia,April 29-May 1,1998,1998.Choi et al.,2018 Eunsol Choi,Omer Lev
83、y,Yejin Choi,Luke Zettlemoyer.Ultra-fine entity typing.In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics(Volume 1:Long Papers),pages 8796,Melbourne,Australia,2018.Dai et al.,2019 Hongliang Dai,Donghong Du,Xin Li,Yangqiu Song.Improving fine-grained 36 entity t
84、yping with entity linking.In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing(EMNLP-IJCNLP),pages 62106215,Hong Kong,China,2019.Dai et al.,2020 Xiang Dai,Sarvnaz Karimi,Ben Hachey,Cecile P
85、aris.An effective transition-based model for discontinuous NER.In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics,pages 58605870,Online,2020.Dhamecha et al.,2021 Tejas Dhamecha,Rudra Murthy,Samarth Bharadwaj,Karthik Sankaranarayanan,Pushpak Bhattacharyya.Role
86、of Language Relatedness in Multilingual Fine-tuning of Language Models:A Case Study in Indo-Aryan Languages.In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing,pages 85848595,Online and Punta Cana,Dominican Republic,2021.Ding et al.,2021 Ning Ding,Yulin Chen,Xu
87、Han,Guangwei Xu,Pengjun Xie,Haitao Zheng,Zhiyuan Liu,Juan-Zi Li,Hong-Gee Kim.Prompt-learning for fine-grained entity typing.ArXiv,abs/2108.10604,2021.Fan et al.,2021 Yimin Fan,Yaobo Liang,Alexandre Muzio,Hany Hassan,Houqiang Li,Ming Zhou,Nan Duan.Discovering representation sprachbund for multilingua
88、l pre-training.In Findings of the Association for Computational Linguistics:EMNLP 2021,pages 881894,Punta Cana,Dominican Republic,2021.Finkel&Manning,2009 Jenny Rose Finkel,Christopher D.Manning.Nested named entity recognition.In Proceedings of the 2009 Conference on Empirical Methods in Natural Lan
89、guage Processing,pages 141150,Singapore,2009.Geng et al.,2019 Ruiying Geng,Binhua Li,Yongbin Li,Xiaodan Zhu,Ping Jian,Jian Sun.Induction networks for few-shot text classification.In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint
90、 Conference on Natural Language Processing(EMNLP-IJCNLP),pages 39043913,Hong Kong,China,2019.Ghaddar&Langlais,2017 Abbas Ghaddar,Phillippe Langlais.WiNER:A Wikipedia annotated corpus for named entity recognition.In Proceedings of the Eighth International Joint Conference on Natural Language Processi
91、ng(Volume 1:Long Papers),pages 413422,Taipei,Taiwan,2017.Huang et al.,2021 Jiaxin Huang,Chunyuan Li,Krishan Subudhi,Damien Jose,Shobana Balakrishnan,Weizhu Chen,Baolin Peng,Jianfeng Gao,Jiawei Han.Few-shot namedentity recognition:An empirical baseline study.In Proceedings of the 2021 Conference on E
92、mpirical 37 Methods in Natural Language Processing,pages 1040810423,Online and Punta Cana,Dominican Republic,2021.Jain et al.,2020 Sarthak Jain,Madeleine van Zuylen,Hannaneh Hajishirzi,Iz Beltagy.SciREX:A challenge dataset for document-level information extraction.In Proceedings of the 58th Annual M
93、eeting of the Association for Computational Linguistics,pages 7506 7516,Online,2020.Lafferty et al.,2001 John D.Lafferty,Andrew McCallum,Fernando C.N.Pereira.Conditional random fields:Probabilistic models for segmenting and labeling sequence data.In Proceedings of the Eighteenth International Confer
94、ence on Machine Learning,ICML 01,page 282289,San Francisco,CA,USA,2001.Li et al.,2016 Jiao Li,Yueping Sun,Robin J.Johnson,Daniela Sciaky,Chih-Hsuan Wei,Robert Leaman,Allan Peter Davis,Carolyn J.Mattingly,Thomas C.Wiegers,Zhiyong Lu.Biocreative v cdr task corpus:a resource for chemical disease relati
95、on extraction.Database:The Journal of Biological Databases and Curation,2016,2016.Li et al.,2020 Xiaoya Li,Jingrong Feng,Yuxian Meng,Qinghong Han,Fei Wu,Jiwei Li.A unified MRC framework for named entity recognition.In Proceedings of the 58th Annual Meeting of the Association for Computational Lingui
96、stics,pages 58495859,Online,2020.Lin et al.,2019 Hongyu Lin,Yaojie Lu,Xianpei Han,Le Sun.Sequence-to-nuggets:Nested entity mention detection via anchor-region networks.In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics,pages 51825192,Florence,Italy,2019.Ling&W
97、eld,2012 Xiao Ling,Daniel S.Weld.Fine-grained entity recognition.In Proceedings of the Twenty-Sixth AAAI Conference on Artificial Intelligence,AAAI12,page 94 100,2012.Liu et al.,2021a Linlin Liu,Bosheng Ding,Lidong Bing,Shafiq Joty,Luo Si,Chunyan Miao.MulDA:A multilingual data augmentation framework
98、 for low-resource cross-lingual NER.In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing(Volume 1:Long Papers),pages 58345846,Online,2021a.Liu et al.,2021b Qing Liu,Hongyu Lin,Xinyan Xiao
99、,Xianpei Han,Le Sun,Hua Wu.Fine-grained entity typing via label reasoning.In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing,pages 46114622,Online and Punta Cana,Dominican Republic,2021b.Lu et al.,2022 Yaojie Lu,Qing Liu,Dai Dai,Xinyan Xiao,Hongyu Lin,Xianpei H
100、an,Le Sun,38 Hua Wu.Unified structure generation for universal information extraction.In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics(Volume 1:Long Papers),pages 57555772,Dublin,Ireland,2022.Onoe et al.,2021 Yasumasa Onoe,Michael Boratko,Andrew McCallum,Gre
101、g Durrett.Modeling fine-grained entity types with box embeddings.In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing(Volume 1:Long Papers),pages 20512064,Online,2021.Rahimi et al.,2019 A
102、fshin Rahimi,Yuan Li,Trevor Cohn.Multilingual ner transfer for low-resource languages.CoRR,abs/1902.00193,2019.Ravi&Larochelle,2017 Sachin Ravi,H.Larochelle.Optimization as a model for few-shot learning.In International Conference on Learning Representations,2017.Ren et al.,2016 Xiang Ren,Wenqi He,M
103、eng Qu,Lifu Huang,Heng Ji,Jiawei Han.AFET:Automatic fine-grained entity typing by hierarchical partial-label embedding.In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing,pages 1369 1378,Austin,Texas,2016.Shaffer,2021 Kyle Shaffer.Language clustering for multili
104、ngual named entity recognition.In Findings of the Association for Computational Linguistics:EMNLP 2021,pages 4045,Punta Cana,Dominican Republic,2021.Snell et al.,2017 Jake Snell,Kevin Swersky,Richard Zemel.Prototypical networks for few-shot learning.In I.Guyon,U.Von Luxburg,S.Bengio,H.Wallach,R.Ferg
105、us,S.Vishwanathan,R.Garnett,editors,Advances in Neural Information Processing Systems,volume 30,2017.Sui et al.,2021 Dianbo Sui,Zhengkun Tian,Yubo Chen,Kang Liu,Jun Zhao.A large-scale Chinese multimodal NER dataset with speech clues.In Proceedings of the 59th Annual Meeting of the Association for Co
106、mputational Linguistics and the 11th International Joint Conference on Natural Language Processing(Volume 1:Long Papers),pages 28072818,Online,2021.Tedeschi et al.,2021 Simone Tedeschi,Valentino Maiorca,Niccol Campolungo,Francesco Cecconi,Roberto Navigli.WikiNEuRal:Combined neural and knowledge-base
107、d silver data creation for multilingual NER.In Findings of the Association for Computational Linguistics:EMNLP 2021,pages 25212533,Punta Cana,Dominican Republic,2021.Tian et al.,2020 Yonglong Tian,Yue Wang,Dilip Krishnan,Joshua B.Tenenbaum,Phillip Isola.Rethinking few-shot image classification:A goo
108、d embedding is all you need?In Andrea Vedaldi,39 Horst Bischof,Thomas Brox,Jan-Michael Frahm,editors,Computer Vision ECCV 2020,pages 266282,Cham,2020.Wang&Lu,2018 Bailin Wang,Wei Lu.Neural segmental hypergraphs for overlapping mention recognition.In Proceedings of the 2018 Conference on Empirical Me
109、thods in Natural Language Processing,pages 204214,Brussels,Belgium,2018.Wang et al.,2018 Bailin Wang,Wei Lu,Yu Wang,Hongxia Jin.A neural transition-based model for nested mention recognition.In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing,pages 10111017,Brus
110、sels,Belgium,2018.Wang et al.,2020 Xinyu Wang,Yong Jiang,Nguyen Bach,Tao Wang,Fei Huang,Kewei Tu.Structure-level knowledge distillation for multilingual sequence labeling.In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics,pages 33173330,Online,2020.Xie et al.,
111、2020 Qizhe Xie,Eduard H.Hovy,Minh-Thang Luong,Quoc V.Le.Self-training with noisy student improves imagenet classification.In 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR),pages 1068410695,2020.Xin et al.,2018 Ji Xin,Yankai Lin,Zhiyuan Liu,Maosong Sun.Improving neural fine
112、-grained entity typing with knowledge attention.In Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence and Thirtieth Innovative Applications of Artificial Intelligence Conference and Eighth AAAI Symposium on Educational Advances in Artificial Intelligence,AAAI18/IAAI18/EAAI18
113、,2018.Xu&Barbosa,2018 Peng Xu,Denilson Barbosa.Neural fine-grained entity type classification with hierarchy-aware loss.In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies,Volume 1(Long Papers),pages 1625,Ne
114、w Orleans,Louisiana,2018.Yan et al.,2021 Hang Yan,Tao Gui,Junqi Dai,Qipeng Guo,Zheng Zhang,Xipeng Qiu.A unified generative framework for various NER subtasks.In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natu
115、ral Language Processing(Volume 1:Long Papers),pages 58085822,Online,2021.Yu et al.,2021 Bowen Yu,Zhenyu Zhang,Jiawei Sheng,Tingwen Liu,Yubin Wang,Yucheng Wang,Bin Wang.Semi-open information extraction.In Proceedings of the Web Conference 2021,WWW 21,page 16611672,New York,NY,USA,2021.Zhang et al.,20
116、21 Dong Zhang,Suzhong Wei,Shoushan Li,Hanqian Wu,Qiaoming Zhu,40 Guodong Zhou.Multi-modal graph fusion for named entity recognition with targeted visual guidance.Proceedings of the AAAI Conference on Artificial Intelligence,35(16):14347 14355,2021.41$6&$6&237845237845 曾道建1 陈玉博2 刘康2 1.湖南师范大学 信息科学与工程学
117、院,长沙 410081 2.中国科学院自动化研究所 模式识别国家重点实验室,北京 100190!#$%&()*+,$%&()*+,&关系定义为两个或多实体之间的某种联系,实体关系抽取是检测和识别出实体之间具有的某种语义关系,并将结果以结构化的形式存储 Martinez-Rodriguez et al.,2020。例如:给定文本“华扬联众数字技术股份有限公司于 2017 年 8 月 2 日在上海证券交易所上市。”,通过实体关系抽取可以得到三元组,。实体关系抽取是信息抽取中的一个关键环节,具有重要的理论意义和广阔的应用前景。在理论方面,实体关系抽取涉及到自然语言处理、机器学习、逻辑推理、数据挖
118、掘等多个学科的理论和方法,实体关系抽取不仅能得到结构化知识,而且对相关学科理论的完善和发展也将产生积极的促进作用;在应用方面,实体关系抽取可以为大规模知识图谱的构建提供核心技术,是实现文本从语法分析到语义分析的关键环节,同时也是智能信息服务的关键支撑,将促进以知识为核心的信息检索、智能问答、人机交互和海量数据管理等多个研究方向的快速发展,进而推进互联网相关产业的进一步发展。-*+./0DE*+./0DE 实体关系抽取是信息抽取领域的一个经典任务,根据抽取数据来源,主要可以分为结构化、半结构化、非结构实体关系抽取三类。目前研究工作主要针对抽取难度较大的非结构化文本展开,研究内容主要涉及语义关系表
119、征、抽取数据处理、复杂关系建模等三方面,以下分别介绍具体研究内容:语义关系表征:语义关系表征:主要研究如何用特征来表示实体之间的语义关系,具体研究内容包括基于规则的方法和统计机器学习方法,统计方法又可分为特征向量、核函数、深度学习自动特征学习等。抽取数据处理:抽取数据处理:主要研究如何处理不同类型的关系抽取数据,具体研究内容包括远程监督标注数据噪声处理、小样本关系抽取、数据隐私保护以及如何从预训练语言模型中抽取知识等。42 复杂关系建模:复杂关系建模:主要研究如何处理实际应用场景中的复杂关系,具体研究内容包括文档、对话、多模态等复杂场景下的关系抽取、多元关系抽取、自动发现实体间的新型关系等。实
120、体关系抽取目前主要面临如下三个挑战:1)自然语言表达的多样性:关系抽取的核心是将自然语言表达的关系知识映射到关系三元组上。然而,自然语言表达具有多样性和隐含性,导致关系抽取任务极具挑战性。自然语言表达的多样性指的是同一种关系可以有多种表达方式,例如“总部位置”这个语义关系可以用“X 的总部位于 Y”,“X 总部坐落于 Y”,“作为 X 的总部所在地,Y”等等不同的文本表达方式。自然语言表达的多样性是关系抽取的一大挑战。2)关系表达的隐含性:关系表达的隐含性是指关系有时候在文本中找不到任何明确的标识,关系隐含在文本中。例如:蒂姆库克与中国移动董事长奚国华会面商谈“合作事宜”,透露出了他将带领苹果
121、公司进一步开拓中国市场的讯号。在这一段文本中,并没有直接给出蒂姆库克和苹果公司的关系,但是从“带领苹果公司”的表达,我们可以推断出蒂姆库克是苹果公司的首席执行官(CEO)。关系表达的隐含性是关系抽取的一大挑战。3)实体关系的复杂性:关系抽取的目标是抽取实体之间的语义关系,然而,真实世界中同一对实体之间可能有多个关系,而且有的关系可以同时存在,而有的关系是具有时间特性的。比如:中国和北京的关系有多个,北京坐落于中国,北京是中国的首都,北京是中国的政治中心,北京是中国的文化中心。这些关系是可以同时存在的。但是如果两个人本来是夫妻关系,后来离婚了,他们就不是夫妻关系了,是前妻或者前夫的关系,这个类关
122、系具有时空性,不能单独存在,实体关系的复杂性是关系抽取的又一挑战。789:;789:;)*+=)*+A?BCA?BC 实体关系抽取技术研究蓬勃发展,已经成为了信息抽取和自然语言处理的重要分支。这一方面得益于系列国际权威评测和会议的推动,如消息理解系列会议(MUC,Message Understanding Conference),自动内容抽取评测(ACE,Automatic Content Extraction)和文本 47 分析会议系列评测(TAC,Text Analysis Conference)。另一方面也是因为实体关系抽取技术的重要性和实用性,使其同时得到了研究界和工业界的广泛关注。实
123、体关系抽取技术自身的发展也大幅度推进了中文信息处理研究的发展,迫使研究人员面向实际应用需求,开始重视之前未被发现的研究难点和重点。纵观实体关系抽取研究发展的态势和技术现状,本文认为实体关系抽取的发展方向如下:1.新类别新类别/开放类别上的小样本学习能力开放类别上的小样本学习能力 目前的小样本学习设定需要用一个巨大的训练集训练的,测试时只给出 N-way K-shot,在这 N*K 个样本上学习并预测,真实场景下的小样本学习不存在巨大的训练集。此外,真实应用中还需要考虑如何自动发现新类别,迫切需要利用小样本实现模型在新类别关系上的快速训练模型。从 GPT3 开始,预训练-提示(Prompt)学习
124、范式受到研究者的关注,该范式将下游任务也建模成语言模型任务,在只给出几条或几十条样本作为训练集,借助与大规模预训练语言模型中蕴含的大量知识,取得了不错的小样本学习效果。此外,相对于传统的Pretrain+Finetune 范式,Prompt 可以摆脱指数级的预训练参数量对巨大计算资源的需求,高效的利用预训练模型。基于上述分析,本文认为实体关系抽取发展方向之一是利用预训练提示学习范式进行高效的新类别/开放类别上的小样本学习。具体包括:1)开放类别语义标签自动生成与新类别的挂载;2)提示学习中关系抽取任务模板的设计与自动学习;3)预训练-提示学习范式进行实体关系抽取的理论分析。2.数据隐私保护下的
125、关系可信抽取数据隐私保护下的关系可信抽取 目前性能较好的实体关系抽取模型主要是基于有监督学习或者远程监督学习的。此类模型需要将大规模的标注数据集中暴露给模型。但是在金融、医疗、安全、军事等应用场景中,数据管理与隐私保护的要求日益严格,因此如何实现数据隐私保护下的实体关系抽取模型高效训练是目前技术在真实应用场景中落地的主要挑战之一。基于上述分析,本文认为实体关系抽取的发展方向之一是数据隐私保护下的关系可信抽取。具体包括:1)数据隐私保护下的大规模实体关系抽取数据自动生成;2)含噪数据下的实体关系抽取模型鲁棒性训练;3)数据隐私保护下的实体关系抽取模型高效训练。3.多模态关系抽取多模态关系抽取 目
126、前实体关系抽取主要针对的是纯文本数据,而常见的文档具有多样的布局且包含丰富的信息,以富文本文档的形式呈现包含大量的多模态信息。从认知科学的角度来说,人脑的感知和认知过程是跨越多种感官信息的融合处理,如人可以同时利用视觉和听觉信息理解说话人的情感、可以通过视觉信息补全文本中的缺失信息等,实体关系抽取技术的进一步发展 48 也应该是针对多模态的富文档。基于上述分析,本文认为实体关系抽取的发展方向之一是多模态信息的融合。具体包括:1)面向关系的多模态预训练模型的设计;2)多模态信息抽取框架中跨模态对齐任务设计;3)多模态信息的提取和表示。4.数据驱动和知识驱动融合数据驱动和知识驱动融合 现有的神经网
127、络实体关系抽取方法依靠深度学习以数据驱动的方式得到各种语义关系的统计模式,其优势在于能从大量的原始数据中学习相关特征,比较容易利用证据和事实,但是忽略了怎样融合专家知识。单纯依靠神经网络进行实体关系抽取,到一定准确率之后,就很难再改进。从人类进行知识获取来看,很多决策的时候同时要使用先验知识以及证据。数据驱动和知识驱动结合是模拟人脑进行信息抽取的关键挑战。基于上述分析,本文认为信息抽取的发展方向之一是构建数据驱动和知识驱动融合抽取技术。具体包括:1)神经符号学习信息抽取框架的构建;2)学习神经网络到逻辑符号的对应关系;3)神经网络对于符号计算过程进行模拟。参考文献参考文献 Adel&Schtz
128、e,2017 Heike Adel,Hinrich Schtze.Global normalization of convolutional neural networks for joint entity and relation classification.In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing,pages 17231729,Copenhagen,Denmark,2017.Baldini Soares et al.,2019 Livio Baldin
129、i Soares,Nicholas FitzGerald,Jeffrey Ling,Tom Kwiatkowski.Matching the blanks:Distributional similarity for relation learning.In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics,pages 28952905,Florence,Italy,2019.Bekoulis et al.,2018 Giannis Bekoulis,Johannes D
130、eleu,Thomas Demeester,Chris Develder.Joint entity recognition and relation extraction as a multi-head selection problem.Expert Systems with Applications,114,2018.Chen et al.,2021 Tao Chen,Haizhou Shi,Siliang Tang,Zhigang Chen,Fei Wu,Yueting Zhuang.CIL:Contrastive instance learning framework for dist
131、antly supervised relation extraction.In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing(Volume 1:Long Papers),pages 61916200,Online,2021.Christopoulou et al.,2019 Fenia Christopoulou,Ma
132、koto Miwa,Sophia Ananiadou.Connecting 49 the dots:Document-level neural relation extraction with edge-oriented graphs.In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing(EMNLP-IJCNLP),page
133、s 49254936,Hong Kong,China,2019.Cui et al.,2021 Li Cui,Deqing Yang,Jiaxin Yu,Chengwei Hu,Jiayang Cheng,Jingjie Yi,Yanghua Xiao.Refining sample embeddings with relation prototypes to enhance continual relation extraction.In Proceedings of the 59th Annual Meeting of the Association for Computational L
134、inguistics and the 11th International Joint Conference on Natural Language Processing(Volume 1:Long Papers),pages 232243,Online,2021.Devlin et al.,2019 Jacob Devlin,Ming-Wei Chang,Kenton Lee,Kristina Toutanova.Bert:Pre-training of deep bidirectional transformers for language understanding.In Proceed
135、ings of NAACL-HLT,pages 41714186,2019.Fu et al.,2019 Tsu-Jui Fu,Peng-Hsuan Li,Wei-Yun Ma.GraphRel:Modeling text as relational graphs for joint entity and relation extraction.In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics,pages 14091418,Florence,Italy,2019.
136、Gao et al.,2019a Tianyu Gao,Xu Han,Zhiyuan Liu,Maosong Sun.Hybrid attention-based prototypical networks for noisy few-shot relation classification.In Proceedings of the Thirty-Third AAAI Conference on Artificial Intelligence and Thirty-First Innovative Applications of Artificial Intelligence Confere
137、nce and Ninth AAAI Symposium on Educational Advances in Artificial Intelligence,AAAI19/IAAI19/EAAI19,2019a.Gao et al.,2019b Tianyu Gao,Xu Han,Hao Zhu,Zhiyuan Liu,Peng Li,Maosong Sun,Jie Zhou.FewRel 2.0:Towards more challenging few-shot relation classification.In Proceedings of the 2019 Conference on
138、 Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing(EMNLP-IJCNLP),pages 62506255,Hong Kong,China,2019b.Gupta et al.,2016 Pankaj Gupta,Hinrich Schtze,Bernt Andrassy.Table filling multi-task recurrent neural network for joint enti
139、ty and relation extraction.In Proceedings of COLING 2016,the 26th International Conference on Computational Linguistics:Technical Papers,pages 25372547,Osaka,Japan,2016.Han et al.,2018 Xu Han,Hao Zhu,Pengfei Yu,Ziyun Wang,Yuan Yao,Zhiyuan Liu,Maosong Sun.FewRel:A large-scale supervised few-shot rela
140、tion classification dataset with state-of-the-art 50 evaluation.In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing,pages 48034809,Brussels,Belgium,2018.Jia et al.,2019 Robin Jia,Cliff Wong,Hoifung Poon.Document-level n-ary relation extraction with multiscale re
141、presentation learning.In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies,Volume 1(Long and Short Papers),pages 36933704,Minneapolis,Minnesota,2019.Jiang et al.,2016 Xiaotian Jiang,Quan Wang,Peng Li,Bin Wang
142、.Relation extraction with multi-instance multi-label convolutional neural networks.In Proceedings of COLING 2016,the 26th International Conference on Computational Linguistics:Technical Papers,pages 14711480,Osaka,Japan,2016.Jiang et al.,2021 Zhengbao Jiang,Jun Araki,Haibo Ding,Graham Neubig.How can
143、 we know when language models know?on the calibration of language models for question answering.Transactions of the Association for Computational Linguistics,9:962977,2021.Katiyar&Cardie,2017 Arzoo Katiyar,Claire Cardie.Going out on a limb:Joint extraction of entity mentions and relations without de
144、pendency trees.In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics(Volume 1:Long Papers),pages 917928,Vancouver,Canada,2017.Li&Ji,2014 Qi Li,Heng Ji.Incremental joint extraction of entity mentions and relations.In ACL(1),pages 402412,2014.Lin et al.,2016 Yankai
145、 Lin,Shiqi Shen,Zhiyuan Liu,Huanbo Luan,Maosong Sun.Neural relation extraction with selective attention over instances.In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics(Volume 1:Long Papers),pages 21242133,Berlin,Germany,2016.Ma et al.,2021 Ruotian Ma,Tao Gui
146、,Linyang Li,Qi Zhang,Xuanjing Huang,Yaqian Zhou.SENT:Sentence-level distant relation extraction via negative training.In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing(Volume 1:Long Pa
147、pers),pages 62016213,Online,2021.Martinez-Rodriguez et al.,2020 Jose L Martinez-Rodriguez,Aidan Hogan,Ivan LopezArevalo.Information extraction meets the semantic web:a survey.Semantic Web,11(2):255335,2020.Miwa&Bansal,2016 Makoto Miwa,Mohit Bansal.End-to-end relation extraction using LSTMs 51 on seq
148、uences and tree structures.In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics(Volume 1:Long Papers),pages 11051116,Berlin,Germany,2016.Miwa&Sasaki,2014 Makoto Miwa,Yutaka Sasaki.Modeling joint entity and relation extraction with table representation.In Proceed
149、ings of the 2014 Conference on Empirical Methods in Natural Language Processing(EMNLP),pages 18581869,Doha,Qatar,2014.Nan et al.,2020 Guoshun Nan,Zhijiang Guo,Ivan Sekulic,Wei Lu.Reasoning with latent structure refinement for document-level relation extraction.In Proceedings of the 58th Annual Meeti
150、ng of the Association for Computational Linguistics,pages 15461557,Online,2020.Nayak&Ng,2020 Tapas Nayak,Hwee Tou Ng.Effective modeling of encoder-decoder architecture for joint entity and relation extraction.Proceedings of the AAAI Conference on Artificial Intelligence,34:85288535,2020.Petroni et a
151、l.,2019 Fabio Petroni,Tim Rocktschel,Sebastian Riedel,Patrick Lewis,Anton Bakhtin,Yuxiang Wu,Alexander Miller.Language models as knowledge bases?In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Pr
152、ocessing(EMNLP-IJCNLP),pages 24632473,Hong Kong,China,2019.Qu et al.,2020 Meng Qu,Tianyu Gao,Louis-Pascal AC Xhonneux,Jian Tang.Few-shot relation extraction via bayesian meta-learning on relation graphs.In International Conference on Machine Learning,2020.Radford et al.,2018 Alec Radford,Karthik Nar
153、asimhan,Tim Salimans,Ilya Sutskever,2018.Improving language understanding by generative pre-training(2018).Roberts et al.,2020 Adam Roberts,Colin Raffel,Noam Shazeer.How much knowledge can you pack into the parameters of a language model?In Proceedings of the 2020 Conference on Empirical Methods in
154、Natural Language Processing(EMNLP),pages 54185426,Online,2020.Song et al.,2018 Linfeng Song,Yue Zhang,Zhiguo Wang,Daniel Gildea.N-ary relation extraction using graph-state LSTM.In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing,pages 22262235,Brussels,Belgium,2
155、018.Sui et al.,2020a Dianbo Sui,Yubo Chen,Kang Liu,Jun Zhao.Distantly supervised relation extraction in federated settings.arXiv preprint arXiv:2008.05049,2020a.Sui et al.,2020b Dianbo Sui,Yubo Chen,Jun Zhao,Yantao Jia,Yuantao Xie,Weijian Sun.Feded:Federated learning via ensemble distillation for me
156、dical relation extraction.In Proceedings of the 52 2020 conference on empirical methods in natural language processing(EMNLP),pages 21182128,2020b.Sui et al.,2021 Dianbo Sui,Chenhao Wang,Yubo Chen,Kang Liu,Jun Zhao,Wei Bi.Set generation networks for end-to-end knowledge base population.In Proceeding
157、s of the 2021 Conference on Empirical Methods in Natural Language Processing,pages 96509660,Online and Punta Cana,Dominican Republic,2021.Takanobu et al.,2019 Ryuichi Takanobu,Tianyang Zhang,Jiexi Liu,Minlie Huang.A hierarchical framework for relation extraction with reinforcement learning.In Procee
158、dings of the Thirty-Third AAAI Conference on Artificial Intelligence and Thirty-First Innovative Applications of Artificial Intelligence Conference and Ninth AAAI Symposium on Educational Advances in Artificial Intelligence,AAAI19/IAAI19/EAAI19,2019.Verga et al.,2021 Pat Verga,Haitian Sun,Livio Bald
159、ini Soares,William Cohen.Adaptable and interpretable neural MemoryOver symbolic knowledge.In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies,pages 36783691,Online,2021.Wan et al.,2021 Hai Wan,Manrong Zhang,
160、Jianfeng Du,Ziling Huang,Yufei Yang,Jeff Z Pan.Fl-msre:A few-shot learning based approach to multimodal social relation extraction.In Proceedings of the AAAI Conference on Artificial Intelligence,volume 35,pages 13916 13923,2021.Wang et al.,2020 Yucheng Wang,Bowen Yu,Yueyang Zhang,Tingwen Liu,Hongso
161、ng Zhu,Limin Sun.TPLinker:Single-stage joint extraction of entities and relations through token pair linking.In Proceedings of the 28th International Conference on Computational Linguistics,pages 15721582,Barcelona,Spain(Online),2020.Wei et al.,2020 Zhepei Wei,Jianlin Su,Yue Wang,Yuan Tian,Yi Chang.
162、A novel cascade binary tagging framework for relational triple extraction.In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics,pages 14761488,Online,2020.Xie et al.,2021 Chenhao Xie,Jiaqing Liang,Jingping Liu,Chengsong Huang,Wenhao Huang,Yanghua Xiao.Revisiting
163、the negative data of distantly supervised relation extraction.In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing(Volume 1:Long Papers),pages 35723581,Online,2021.53 Yang et al.,2019 Kai
164、jia Yang,Liang He,Xin-yu Dai,Shujian Huang,Jiajun Chen.Exploiting noisy data in distant supervision relation classification.In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguis-tics:Human Language Technologies,Volume 1(Long and Short Papers
165、),pages 32163225,Minneapolis,Minnesota,2019.Yao et al.,2021 Yuan Yao,Jiaju Du,Yankai Lin,Peng Li,Zhiyuan Liu,Jie Zhou,Maosong Sun.CodRED:A cross-document relation extraction dataset for acquiring knowledge in the wild.In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Pro
166、cessing,pages 44524472,Online and Punta Cana,Dominican Republic,2021.Yao et al.,2019 Yuan Yao,Deming Ye,Peng Li,Xu Han,Yankai Lin,Zhenghao Liu,Zhiyuan Liu,Lixin Huang,Jie Zhou,Maosong Sun.DocRED:A large-scale document-level relation extraction dataset.In Proceedings of the 57th Annual Meeting of the
阿里研究院&智谱AI :2023全球数字科技发展研究报告-全球科研实力对比(44页).pdf
IMT-2020(5G)推进组:5G远程遥控驾驶应用场景研究报告(2022)(19页).pdf
讴霭咨询:解码蔚来汽车的成功秘密(77页).pdf
能源基金会:2022延庆碳达峰碳中和方案及空气质量协同改善路径研究报告(115页).pdf
讴霭咨询:2022年家居零售创新商业模式分析报告(65页).pdf
亿渡数据:2022年中国PLC行业研究报告(20页).pdf
清华五道口:全国城市新市民金融服务报告(2022)(65页).pdf
新世纪评级:2022辽宁省及下辖各市经济财政实力与债务研究报告(26页).pdf
新世纪评级:2022新疆自治区及下辖各州市(地区)经济财政实力与债务研究报告(28页).pdf
QuestMobile:2022世界杯营销洞察报告(33页).pdf
仲量联行:2022年未来办公调研报告(44页).pdf
普华永道:2022年数字化工厂转型调研报告(65页).pdf
上海悦安健康促进中心:《机构感控手册》:关于新型冠状病毒肺炎的一般性防护指南[44页].pdf
【研报】科技行业全市场科技产业策略报告第六十五期:庖丁解牛科创板年报解析专题一TMT板块47家公司-20200510[32页].pdf
【研报】食品饮料行业:肉制品行业系列深度报告一强者恒强品牌企业进入新时代-20200228[27页].pdf
【研报】食品饮料行业:原奶供需紧平衡时代来临上下游联动加强-20200401[55页].pdf
【研报】医药生物行业:科创板生物医药投资手册第19期兴证医药科创板生物医药投资定期报告-20200202[19页].pdf
【研报】食品饮料行业:我国预调酒行业拐点已至具备再度启动潜力-20200328[32页].pdf
【研报】食品饮料行业区域白酒系列深度(二):紧握结构性机遇苏酒有望实现竞合发展-20200417[30页].pdf
2019中国移动健康用户数字行为专题分析2019(10页).pdf
【公司研究】华润微-科创板新股纵览-20200212[32页].pdf
【研报】医疗器械行业运动医学研究之一:行业概览红日初升-20200406[29页].pdf
【研报】医药生物行业兴证医药科创板生物医药投资定期报告:科创板生物医药投资手册第26期-20200511[17页].pdf
【研报】食品饮料行业:休闲零食深度研究之线上篇线上三强格局稳固行业盈利趋势向好-20200217[47页].pdf
线上健身第一股-keep招股说明书(463页).pdf
蜜雪冰城招股说明书-连锁茶饮第一股(724页).pdf
QuestMobile:2022年中国短视频直播电商发展洞察报告(30页).pdf
QuestMobile:2022新中产人群洞察报告(37页).pdf
町芒:2022现制茶饮行业研究报告(47页).pdf
麦肯锡:2023中国消费者报告:韧性时代(33页).pdf
QuestMobile:2021新中产人群洞察报告(30页).pdf
罗振宇2023“时间的朋友”跨年演讲完整PDF.pdf
锐仕方达&薪智:2022年薪酬白皮书(105页).pdf
美团:2022新餐饮行业研究报告(74页).pdf