提示家庭:及时学习和KG相关的研究工作,工具包和纸列表的画廊。
| 目录 | 描述 |
|---|
| 研究 | •迅速与学习相关的研究模型实施的集合 |
| Lambdakg | •基于PLM的KG嵌入和应用程序的库 |
| 三角洲 | •用于动态编辑基于PLM的KG嵌入的库 |
| 教程注释 | •初学者的教程笔记本 |
目录
教程
- 具有验证的语言模型的零和少数NLP。 AACL 2022教程[PPT]
- 数据有效的知识图构造。 CCKS2022教程[PPT]
- 高效且Robuts知识图构造。 AACL-IJCNLP教程[PPT]
- 知识知情的及时学习。 MLNLP 2022教程(中文)[PPT]
调查
- 增量调整:对预训练语言模型的参数有效方法的全面研究(ARXIV 2021)[纸]
- 预训练,提示和预测:对自然语言处理提示方法的系统调查(ACM计算调查2021)[纸]
- 重组的预训练(在Arxiv 2022上)[纸]
- 对知识密集型NLP的调查,具有预训练的语言模型(在Arxiv 2022上)[纸]
- 对知识增强的预训练的语言模型的调查(ARXIV 2022)[纸]
- 语言模型作为知识基础的综述(在Arxiv 2022上)[纸]
- 生成知识图构造:评论(EMNLP,2022)[纸]
- 语言模型提示推理:调查(在Arxiv 2022上)[纸]
- 在不同类型的知识图上推理:静态,时间和多模式(在Arxiv 2022上)[纸]
- 大语言模型中知识的生命周期:调查(ARXIV 2022)[纸]
- 统一大型语言模型和知识图:路线图(在Arxiv 2023上)[纸]
文件
知识及时
语言理解
- 2020年Neurips的知识密集型NLP任务检索一代。[PDF]
- 领域:ICML 2020中的检索语言模型预训练。[PDF]
- 在ACL 2022中,使预训练的语言模型更好,几乎没有学习者。[PDF]
- PTR:及时调整文本分类规则,在OpenAI 2022。[PDF]
- 在EMNLP 2021中,标记有效的零和几乎没有射击关系提取的言语和元素。[PDF]
- 关系信息:利用提示在EMNLP 2022中生成零摄影关系三重速率提取的合成数据(发现)。 [PDF]
- 知识渊博的及时调整:将知识纳入ACL 2022中的及时的文本分类。[PDF]
- ppt:在ACL 2022中进行几次学习的预训练及时调整。[PDF]
- EMNLP 2022(发现)中的预训练语言模型的对比演示调整。 [PDF]
- 适应性:基于及时的NLP的自适应模型培训,在Arxiv 2022中。[PDF]
- 知识提示:在www 2022中进行协同提取的知识感知及时调查。[PDF]
- 架构意识参考作为提示改善数据有效的知识图构建,Sigir 2023。[PDF]
- 在2022年Neurips中将知识与记忆中的知识解耦:检索及时的及时学习。[PDF]
- 关系提取作为开簿检查:检索增强的及时调整,在Sigir 2022中。[PDF]
- Lightner:在2022年的cling coling中,通过可容纳提示的低资源调整范例。[PDF]
- ACL 2022中的通用信息提取的统一结构生成。[PDF]
- Lasuie:在2022年Neurips中,通过潜在自适应结构感知的生成语言模型统一信息提取。[PDF]
- Atlas:在Arxiv 2022中,很少有检索增强语言模型的学习。[PDF]
- 不要提示,搜索! ACL 2022中,基于语言模型的基于采矿的零拍学习。[PDF]
- 在EMNLP 2022中,在预训练的语言模型中提示知识。[PDF]
- 统一知识促使CIKM 2022中的客户服务对话预培训。[PDF]
- 在EMNLP 2022中,在预训练的语言模型中提示知识。[PDF]
- 自我建造:在Arxiv 2022中,将语言模型与自我生成的说明进行对齐。[PDF]
- 一个嵌入者,任何任务:指令 - 字段的文本嵌入,在Arxiv 2022中。[PDF]
- 在NAACL 2022中学习检索提示的提示。[PDF]
- 培训数据比您想象的更有价值:通过从培训数据中检索ACL 2022的一种简单有效的方法。[PDF]
- 所有域的一个模型:跨域NER的协作域前序调整,在Arxiv 2023中。[PDF]
- 重新申请:检索启动的黑盒语言模型,在Arxiv 2023中。[PDF]
- 知识增强的语言模型提示零照片知识图答录,在Arxiv 2023中。[PDF]
多模式
- 良好的视觉引导使得更好的提取器:在NAACL 2022中的多模式实体和关系提取的分层视觉前缀(发现)。 [PDF]
- 视觉提示调整,在ECCV 2022中。[PDF]
- CPT:EMNLP 2022中的预训练视力语言模型的色彩及时调整。[PDF]
- 在IJCV 2022中学习提示视觉模型。[PDF]
- 在神经2022中,测试时间及时调整视觉模型中的零弹性概括。[PDF]
高级任务
- 建议作为语言处理(RLP):在ACM Recsys 2022中的统一预处理,个性化提示和预测范式(P5)。[PDF]
- 通过知识增强的及时学习,在KDD 2022中迈向统一的会话推荐系统。[PDF]
- 提示:在VLDB 2023中及时调用低资源的广义实体匹配。[PDF]
- VIMA:在Arxiv 2022中使用多模式提示的通用机器人操纵。[PDF]
- 在Arxiv 2022中,公正的反归结语言模型。[PDF]
- PROG PROMPT:在Arxiv 2022中使用大语言模型生成位置的机器人任务计划。[PDF]
- 在2022年Neurips Larel的Neurips Larel中与用于体现推理的语言模型合作。 [PDF]
提示(PLM)以获取知识
知识探测
- 您可以将多少知识包装到语言模型的参数中?在EMNLP 2020中。[PDF]
- 语言模型作为知识基础?在EMNLP 2019中。[PDF]
- CSRR 2022中的常识变压器的实质知识库。[PDF]
- TACL2022中的时光语言模型作为时间知识基础。 [PDF]
- 生成的预训练的语言模型可以用作封闭式质量检查的知识基础吗?在ACL2021中。 [PDF]
- 语言模型作为知识基础:关于实体表示,存储容量和释义查询,在EACL2021中。 [PDF]
- 生物医学知识基础完成的科学语言模型:一项实证研究,AKBC 2021。[PDF]
- 多语言喇嘛:在EACL2021中调查多语言审慎语言模型中的知识。 [PDF]
- 我们怎么知道语言模型知道什么?在TACL 2020中。[PDF]
- 上下文如何影响语言模型的事实预测,在AKBC 2020中。[PDF]
- 哥伦:在EMNLP 2022中,在预训练的语言模型中探讨概念知识。[PDF]
- 在ACL 2022中探索预先训练的语言模型的明喻知识。[PDF]
知识图嵌入(我们提供图书馆和基准Lambdakg)
- KG-BERT:知识图完成的Bert,Arxiv 2020。[PDF]
- 通过预训练的语言模型,在2020年殖民地的多任务学习图形完成。[PDF]
- 在www 2021中,结构增强的文本表示学习,用于有效的知识图完成。[PDF]
- 开普勒:一个知识嵌入和预训练语言表示的统一模型,TACL 2021 [PDF]
- Statik:NAACL 2022中的归纳知识图的结构和文本。[PDF]
- 联合语言语义和结构嵌入知识图完成,在coling中。 [PDF]
- 知识是平坦的:用于各种知识图完成的SEQ2SEQ生成框架。 [PDF]
- 预训练的模型是否有益于知识图的完成? ACL 2022中的可靠评估和合理的方法。[PDF]
- 语言模型作为知识嵌入,在2022年IJCAI。[PDF]
- 从歧视到世代:知识图完成,生成变压器,在www 2022中。[PDF]
- 通过记忆推理:最近的邻居知识图嵌入,在Arxiv 2022中。[PDF]
- SIMKGC:ACL 2022中的简单对比知识图完成,使用预训练的语言模型。[PDF]
- ACL 2022中的序列知识图完成和问题回答的顺序。[PDF]
- LP-bert:链接预测的多任务预训练知识图BERT,在Arxiv 2022中。[PDF]
- 面具和原因:KDD 2022中的复杂逻辑查询的预训练知识图形变压器。[PDF]
- 知识是平坦的:cling 2022中的各种知识图完成的SEQ2SEQ生成框架。[PDF]
分析
- 知识渊博或受过教育的猜测?在ACL 2021中重新访问语言模型作为知识基础。[PDF]
- 可以提示探测验证的语言模型吗?了解ACL 2022中的因果观点的不可见风险。[PDF]
- 预训练的语言模型如何捕获事实知识? ACL 2022中的因果启发分析。[PDF]
- 大型语言模型的紧急能力,在Arxiv 2022中。[PDF]
- ACL 2022中的知识变压器中的知识神经元。[PDF]
- 在EMNLP 2022中,在预训练的基于变压器的语言模型中找到技能神经元。[PDF]
- 提示是否使用自然语言解决NLP任务?在Arxiv 2022中。[PDF]
- 重新思考示范的作用:是什么使内在的学习工作?在EMNLP 2022中。[PDF]
- 基于及时的模型是否真的了解其提示的含义?在NAACL 2022中。[PDF]
- 当不信任语言模型时:在Arxiv 2022中调查参数和非参数记忆的有效性和局限性。[PDF]
- 为什么GPT可以在文化中学习?语言模型秘密执行梯度下降为元式临时剂,在Arxiv 2022中。[PDF]
- 奇妙的有序提示和在哪里可以找到它们:在ACL 2022中克服几乎没有的提示命令敏感性。[PDF]
- 编辑大型语言模型:Arxiv 2023中的问题,方法和机会。[PDF]
联系信息
有关使用The Takit的帮助或问题,请提交GitHub问题。