文本生成中的扩散模型: Qiuhua Yi,Xiangfan Chen,Chenwei Zhang,Zehai Zhou,Linan Zhu,Xiangjie Kong。 PEERJ计算机科学2024 2月
文本生成Helenačeović,Marinšilić,GoranDelač,Klemo Vladimir的扩散模型的概述。 MIPRO 2023 JUN
自然语言处理中的扩散模型Hao Zou,Zae Myung Kim,Dongyeop Kang的调查。 Arxiv 2023年5月
NLP中的扩散模型: Zhao的Yuansong Zhu调查。 Arxiv 2023年3月
非自动回归文本生成的扩散模型: Yifan Li,Kun Zhou,Wayne Xin Zhao,Ji-Rong Wen。 IJCAI 2023年3月
在文本生成Zhujin Gao,Junliang Guo,Xu Tan,Yongxin Zhu,Fang Zhang,Jiang Bian,Linli Xu的嵌入空间上增强扩散模型。 NAACL 2024年6月
简单有效的掩盖扩散语言模型Subham Sekhar Sahoo,Marianne Arriola,Yair Schiff,Aaron Gokaslan,Edgar Marroquin,Justin T Chiu,Alexander Rush,Volodymyr Kuleshov。 Arxiv 2024年6月
有效地集成了文本扩散和预训练的语言模型与语言易于优先的时间表Yimin OU,Ping Jian。 LREC |殖民地2024年5月
几乎没有时间的暂时修剪会加速文本生成Bocheng Li,Zhujin Gao,Yongxin Zhu,Kun Yin,Haoyu Cao,Deqiang Jiang,Linli Xu的扩散模型。 LREC |殖民地2024年5月
LADIC:扩散模型真的不如图像到文本生成的自动回归对应物吗? Yuchi Wang,Shuhuai Ren,Rundong Gao,Linli Yao,Qingyan Guo,Kaikai AN,Jianhong Bai,Xu Sun。 NAACL 2024 APR
通过可控的潜扩散Wei Zou,Ziyuan Zhuang,Shujian Huang,Jia Liu,Jiajun Chen生成释义。 Arxiv 2024 Apr
分散词:词汇约束文本生成Jinqiao Dai,Pengsen Cheng,Jiamiao Liu,Jiayong Liu的对比扩散模型。 SSRN 2024 APR
扩散性:与潜在的对话生成的扩散模型,潜在空间Jianxiang Xiang,Zhenhua Liu,Haodong Liu,Yin Bai,Jia Cheng,Wenliang Chen。 LREC |殖民地2024年4月
使用时间步骤意识挂起江,吉蒙CAI,Xiaolu Tang来改善基于迭代的非自动回归语言模型。 ICPADS 2024年3月
语言纠正流:通过概率流shujian Zhang,Lemeng Wu,Cenengyue Gong和Xingchao Liu的概率流进行扩散语言产生。 NAACL 2024年3月
有条件文本生成的流量匹配,以几个采样步骤,di Wu,Yuki Asano,Pascal Mettes,Basura Fernando,Björn -Ommer,Cees Snoek。 EACL 2024年3月
利用潜在扩散模型加速采样速度并增强文本生成质量Chenyang Li,Long Zhang,Qiusheng Zheng。特刊人工智能工程2024年3月的进步
LDSEQ:序列序列文本生成Yizhou ding,Jidong Tian,Shanxing Mei,Yifan Zhou,Yuwu Dong,Hao He,Hao He,Weisheng Hu的潜在扩散模型。 CSAI 2024年3月
机器翻译的基准扩散模型Yunus Demirag,Danni Liu,Jan Niehues。 EACL 2024年3月
生成,重建和表示离散和连续的数据:通用扩散,可学习编码的广泛编码liu,Yu Wang,Yu Wang,Zeyu Feng,Qiyu Wu,Qiyu Wu,Liping Tang,Yuan Gao,Yuan Gao,Zhen Li,Shuguang Cui,Shuguang Cui,Julian McAuley,Julian McAuley,Eric P. p. x. Xing,zing yang, Arxiv 2024年2月
TENCDM:了解语言模型空间中扩散模型的特性编码亚历山大·沙巴林,Viacheslav Meshchaninov,Tingir Badmaev,Dmitry Molchanov,Grigory Bartosh,Sergey Markov,Sergey Markov,Dmitry Vetrov。 Arxiv 2024年2月
差异:上下文常识性知识扩散silin gao,mete ismayilzada,Mengjie Zhao,Hiromi Wakaki,Yuki Mitsufuji,Antoine Bosselut。 Arxiv 2024年2月
IPED:基于扩散模型Jianli Zhao,Changhao Xu,Bin Jiang的关系三重提取的隐式观点。 NAACL 2024年2月
让我们逐步纠正:通过扩散模型Shunyu Liu,Jie Zhou,Qunxi Zhu,Qin Chen,Qingchun Bai,Jun Xiao,Liang He来改善基于方面的情感分析。 LREC | 2月2024年殖民地
文本扩散与加强条件的Yuxuan Liu,Tianchi Yang,Shaohan Huang,Zihan Zhang,Haizhen Huang,Furu Wei,Weiwei Deng,Feng Sun,Qi Zhang。 Arxiv 2024年2月
可控扩散语言模型Cheng Kang,Xinye Chen,Yong Hu,Daniel Novak的量化嵌入向量。 Arxiv 2024年2月
思想的扩散:扩散语言模型中的经过思考推理Jiacheng Ye,Shansan Gong,Liheng Chen,Lin Zheng,Jiahui Gao,Han Shi,Chuan Wu,Zhenguo,Zhenguo Li,Wei Bi,Wei Bi,Lingpeng Kong。 Arxiv 2024年2月
文本扩散模型的转移学习Kehang Han,Kathleen Kenealy,Aditya Barua,Noah Fiedel,Noah Constant。 Arxiv 2024 Jan
MDM:硬限制文本生成Wenjun KE,Yikai Guo,Qi Liu,Wanyi Chen,Peng Wang,Haoran Luo,Zhizhao Luo的元扩散模型。基于知识的系统2024 JAN
ROIC-DM:通过扩散模型Shilong Yuan,Wei Yuan,Hongzhi Yin,Tieke He的强大文本推断和分类。 Arxiv 2024 Jan
扩散-EXR:可控制的审查生成,可通过扩散模型Ling Li,Shaohua Li,Winda Marantika,Alex C. Kot,Huijing Zhan。 Arxiv 2023 Dec
iPad:迭代,平行和基于扩散的网络,用于场景文本识别Yang,Zhi Qiao,Yu Yu Zhou,Weiping Wang。 Arxiv 2023 Dec
Diffuvst:通过全球历史引导的DeNoising模型Shengguang Wu,Mei Yuan,Qi Su来叙述虚构的场景。 EMNLP 2023 DEC
扩散:通过TAG扩散过程Ziyang Huang,Pengfei Cao,Jun Zhao,Kang Liu的序列标记。 EMNLP 2023 DEC
CodeFusion:代码生成Mukul Singh,JoséCambronero,Sumit Gulwani,Vu LE,Vu LE,Carina Negreanu,Gust verbruggen的预训练扩散模型。 EMNLP 2023年10月
通过估计数据分布Aaron Lou,Chenlin Meng,Stefano Ermon的比率来进行离散扩散建模。 Arxiv 2023年10月
新意图发现Wenkai Shi,Wenbin An,Feng Tian,Qinghua Zheng,Qianying Wang,Ping Chen的扩散加权图框架。 EMNLP 2023年10月
Scandl:在文本Lena Bolliger,David Reich,Patrick Haller,Deborah Jakobi,Paul Prasse,LenaJäger上产生合成扫描的扩散模型。 EMNLP 2023年10月
DETIME:使用基于编码的LLM Weijie Xu,Wenxiang Hu,Fanyou Wu,Srinivasan Sengamedu的扩散增强主题建模。 EMNLP 2023年10月
通过扩散模型Lei Luo,Yajing Xu进行基于生成的事件参数提取的上下文感知提示。 CIKM 2023年10月
Diffucom:评论生成Jiamiao Liu,Pengsen Cheng,Jinqiao Dai,Jiayong Liu的新型扩散模型。基于知识的系统2023年10月
插条:信息熵意识到非自动回归文本生成Renzhi Wang,Jing Li,Piji Li的扩散过程。 EMNLP 2023年10月
Ladida:使用顺序解码Zihuiwen Ye,Elle Michelle Yang,Phil Blunsom的潜在扩散。扩散模型的神经车间2023年10月
diffuseq-v2:加速的Seq2Seq扩散模型Shansan Gong,Mukai Li,Jiangtao Feng,Zhiyong Wu,Lingpeng Kong加速的离散和连续文本空间。 EMNLP 2023年10月
diffusionret:使用约束解码的Shanbao Qiao,Xuebing Liu,Seung-Hoon Na使用扩散增强的生成试剂。 EMNLP 2023年10月
Paraguide:引导式释义的引导式释义,用于插件的文本样式转移Zachary Horvitz,Ajay Patel,Chris Callison-Burch,Zhou Yu,Kathleen McKeown。 AAAI 2023年8月
扩散语言模型可以通过缩放和指令进行许多任务Jiasheng Ye,Zaixiang Zheng,Yu Bao,Lihua Qian,Quanquan GU。 Arxiv 2023 8月
通过信息瓶颈指导的文本扩散过程来增强短语表示,用于提取键形的Yuanzhen Luo,Qingyu Zhou,feng Zhou。 LREC |殖民地2023年8月
扩散如何影响验证的语言模型对分布数据的数据? Huazheng Wang,Daixuan Cheng,Haifeng Sun,Jingyu Wang,Qi Qi,Jianxin Liao,Jing Wang,Cong Liu。 ECAI 2023 JUL
XDLM:机器翻译的跨语义扩散语言模型Linyao Chen,Aosong Feng,Boming Yang,Zihui li。 Arxiv 2023 Jul
通过扩散模型Jiaao Chen,Diyi Yang的对话结构可控制的对话结构。 ACL 2023 Jul
诗歌:在诗歌一代Zhiyuan Hu,Chumin Liu,Yue Feng,Anh Tuan Luu,Bryan Hooi中迈向共同的语义和度量操纵。 AAAI 2023 JUN
DiffudeTox:用于文本排毒的混合扩散模型Griffin Floto,Mohammad Mahdi Abdollah Pour,Parsa Farinneya,Zhenwei Tang,Ali Pesaranghader,Manasa Bharadwaj,Scottanner。 ACL 2023 Jun
计划者:通过潜在语言扩散模型Yizhe Zhang,Jiatao GU,Zhuofeng Wu,Shuangfei Zhai,Josh Susskind,Navdeep Jaitly产生多元化的段落。神经2023年6月
Diffusemp:一个基于扩散模型的框架,具有多核控制的促进响应生成Guanqun BI,Lei Shen,Yanan Cao,Meng Chen,Yuqiang Xie,Zheng Lin,Zheng Lin,Xiaodong He。 ACL 2023 Jun
基于可能性的扩散语言模型Ishaan Gulrajani,Tatsunori B. Hashimoto。神经2023年5月
Dior-cvae:训练的语言模型和差异对话框的扩散先验, Yang,Thy Yang,Thy Tran,Iryna Gurevych。 EMNLP 2023年5月
David帮助Goliath:小型专业和大型扩散LMS Xioochuang Han,Sachin Kumar,Yulia Tsvetkov,Marjan Ghazvininejad之间的推理时间合作。 Arxiv 2023年5月
扩散器:命名实体识别的边界扩散Yongliang Shen,Kaitao Song,Xu Tan,Dongsheng Li,Weiming Lu,Yueting Zhuang。 ACL 2023年5月
基于扩散的语言模型Yiwei Lyu,Tiange Luo,Jiacheng Shi,Todd Hollon,Honglak Lee具有细粒度的文本样式转移。 REPL4NLP 2023 5月
diffusia:用于编码器 - 二十座文本扩散的螺旋相互作用架构,玉龙,贾·乔·古,Zhen-hua ling。 Arxiv 2023年5月
扩散语言模型的生成可以停止早期索非亚·玛丽亚·洛西罗·瓦纳(Sofia Maria Lo Cicero Vaina),尼基塔·巴拉甘斯基(Nikita Balagansky),丹尼尔·加夫里洛夫(Daniil Gavrilov)。 Arxiv 2023年5月
AR扩散:文本生成Wu,Zhihao Fan,Xiao Liu,Yeyun Gong,Yelong Shen,Jian Jiao,Hai-Tao Zheng,Juntao Li,Zhongyu Wei,Jian Guo,Nan Duan,Nan Duan,Weizhu Chen。神经2023年5月
苔丝:文本到文本自我条件的单纯形扩散Rabeeh Karimi Mahabadi,Hamish Ivison,Jaesung Tae,James Henderson,Iz Henderson,Iz Beltagy,Matthew Peters,Matthew Peters,Arman Cohan。 EACL 2023年5月
扩散模型可以在文本生成中获得更好的性能吗?弥合训练和推理之间的差距! Zecheng Tang,Pinzheng Wang,Keyan Zhou,Juntao Li,Ziqiang Cao,Min Zhang。 ACL 2023年5月
扩散 - 纳特:非自动回归文本生成Kun Zhou,Yifan Li,Xin Zhao,ji-rong Wen的自我启动离散扩散。 EACL 2023年5月
Diffusum:通过扩散的Haopeng Zhang,liu,Jiawei Zhang的生成增强的提取性摘要。 ACL 2023年5月
glyphdiffusion:文本生成图像生成Junyi Li,Wayne Xin Zhao,Jian-Yun Nie,Ji-Rong Wen。 ARXIV 2023 APR
一种更便宜,更好的扩散语言模型,带有软掩模的噪音Jiaao Chen,Aston Zhang,Mu Li,Alex Smola,Diyi Yang。 EMNLP 2023 APR
恐龙:通过操纵噪声jiasheng ye,Zaixiang Zheng,Yu Bao,Lihua Qian,Mingxuan Wang。* TACL 2023 FEB
文本生成Lin Zheng,Jianbo Yuan,Lei Yu,Lingpeng Kong的重新聚集分散扩散模型。 Arxiv 2023年2月
带有扩散语言模型的文本生成:一种连续段落的训练方法Denoise Zhenghao Lin,Yeyun Gong,Yelong Shen,Tong Wu,Zhihao Fan,Chen Lin,Nan Duan,Weizhu Chen。 ICML 2022 DEC
seqdiffuseq:带有编码器 - 二十个变形金刚的文本扩散,Zheng Yuan,Chuanqi Tan,Fei Huang,Songfang Huang。 Arxiv 2022 Dec
语言生成的潜在扩散贾斯汀·洛夫拉斯,瓦尔莎·凯瑟,乔万,艾略特·谢克曼,基利安·Q。Weinberger。神经2022年12月
在文本生成Zhujin Gao,Junliang Guo,Xu Tan,Yongxin Zhu,Fang Zhang,Jiang Bian,Linli Xu的嵌入空间上增强扩散模型。 NAACL 2022 DEC
扩散性:通过扩散模型Zhengfu He,Tianxiang Sun,Qiong Tang,Kuanning Wang,Xuanjing Huang,Xipeng Qiu改善生成性掩蔽的语言模型。 ACL 2022年11月
分类数据桑德·迪尔曼(Sander Dieleman),劳伦特·萨特兰(Laurent Sartran),阿尔曼·罗万奈(Arman Roshannai),尼古拉·萨维诺夫(Nikolay Savinov),Yaroslav Ganin,Pierre H. Richemond,Arnaud Doucet,Robin Doucet,Robin Strudel,Chris Durer,Conor Durkan,Conor Durkan,Cortis Hawthorne,Rebrond,RémiLeblond,Johohohhohl, Arxiv 2022年11月
自我调节的嵌入文本生成Robin Strudel,Corentin Tallec,FlorentAltché,Yilun Du,Yilun Du,Yaroslav Ganin,Arthur Mensch,Will Grathwohl,Nikolay Savinov,Sander Dieleman,Sander Dieleman,Laurent Sifre,Laurent Sifre,RémiLeblond。 Arxiv 2022年11月
SSD-LM:用于文本生成和模块化控制Xioochuang Han,Sachin Kumar,Sachin Kumar,Yulia tsvetkov的半自动退缩单纯性扩散语言模型。 ACL 2022 OCT
扩散器:通过基于编辑的重建Machel Reid的离散扩散,Vincent J. Hellendoorn,Graham Neubig。 Arxiv 2022年10月
diffuseq:通过扩散模型Shansan Gong,Mukai Li,Jiangtao Feng,Zhiyong Wu,Lingpeng Kong的序列文本生成序列。 ICLR 2022年10月
模拟位:使用带有自我调节的Ting Chen,Ruixiang Zhang,Geoffrey Hinton的扩散模型生成离散数据。 ICLR 2022年8月
可综合文本在潜在空间中控制着odes guangyi liu,zeyu feng,yuan gao,Zichao Yang,Xiaodan Liang,Junwei Bao,Xiaodong HE,Shuguang Cui,Zhen li,Zhen li,zhiting hu。 EMNLP 2022 8月
可解释的文本建模Peiyu Yu,Sirui Xie,Xiaojian MA,Baoxiong Jia,Bo Pang,Ruiqi Gao,Yixin Zhu,Song-Chun Zhu,Ying Nian Wu。 ICML 2022 Jun
扩散LM改善了可控文本Xiang Lisa Li,John Glongstun,Ishaan Gulrajani,Percy Liang,Tatsunori B. Hashimoto。神经2022年5月
为文本尼古拉·萨维诺夫(Nikolay Savinov),朱诺格(Junyoung Chung),米科拉(Mikolaj Binkowski),埃里希·埃尔森(Erich Elsen),亚伦·范·丹·登·奥德(Aaron van den Oord)提供了逐步摘要的deno deno deno deno deno denoecododer。 ICLR 2021年12月
自回归扩散模型Emiel Hoogeboom,Alexey A. Gritsenko,Jasmijn Bastings,Ben Poole,Rianne van den Berg,Tim Salimans。 ICLR 2021年10月
在离散状态空间中的结构化denoising扩散模型雅各布·奥斯汀,丹尼尔·约翰逊,乔纳森·霍,丹尼尔·塔洛,瑞安娜·范·丹·伯格。神经2021年7月
Argmax流和多项式扩散:学习分类分布Emiel Hoogeboom,Didrik Nielsen,Priyank Jaini,PatrickForré,Max Welling。 Neurips 2021 2月
Zecheng Tang,Youyuan Zhang,Haolun Wu,Ye Yuan
请随时提交公关以供该项目贡献!非常感谢您的帮助!