大厦
Sockeye已进入维护模式,不再添加新功能。我们感谢所有通过拉动请求,发行报告等在整个开发过程中为大红牛做出了贡献的每个人。
Sockeye是基于Pytorch建立的神经机器翻译的开源序列到序列框架。它实施了分布式培训并优化了对最先进模型的推断,为亚马逊翻译和其他MT应用程序提供动力。在我们的ChangElog中跟踪了最新的发展和变化。
有关快速启动指南,以培训任何大小数据的标准NMT模型,请参见WMT 2014英语 - 德国教程。
有关问题和问题报告,请在Github上提出问题。
版本3.1.x:仅Pytorch
使用3.1.x版本,我们删除了对MXNET 2.x的支持。经过Pytorch和Sockeye 3.0.x培训的模型仍与Sockeye 3.1.x.兼容。经过2.3.x(使用MXNET)训练并使用Sockeye 3.0.X的转换工具转换为Pytorch的模型不能与Sockeye 3.1.x一起使用。
版本3.0.0:并发Pytorch和MXNET支持
从版本3.0.0开始,Sockeye也基于Pytorch。我们将与3.0.x版本的2.3.x版本的MXNET模型保持向后兼容。如果安装了MXNET 2.X,则Sockeye可以使用Pytorch或MXNET运行。
所有经过2.3.x(使用MXNET)训练的模型都可以使用转换器CLI( sockeye.mx_to_pt )转换为使用Pytorch运行的型号。这将创建一个pytorch参数文件( <model>/params.best ),然后将现有的mxnet参数文件备份到<model>/params.best.mx 。请注意,这仅适用于用于推断的全面训练模型。不支持使用Pytorch对MXNET模型的继续培训(因为我们不转换培训和优化器状态)。 sockeye.mx_to_pt要求将MXNET安装到环境中。
现在,3.0.0版本的所有CLIS现在使用Pytorch,例如sockeye-{train,translate,score} 。基于MXNET的CLI/模块仍可以通过sockeye-{train,translate,score}-mx访问。
可以在没有MXNET的情况下安装和运行Sockeye 3,但是如果安装,则执行扩展的测试套件,以确保Pytorch和MXNET模型之间的等效性。请注意,使用MXNET运行Sockeye 3.0.0需要安装MXNET 2.x( pip install --pre -f https://dist.mxnet.io/python 'mxnet>=2.0.0b2021' )
安装
下载当前版本的Mockeye:
git clone https://github.com/awslabs/sockeye.git
安装Mokeye模块及其依赖项:
cd sockeye && pip3 install --editable .
对于更快的GPU培训,请安装NVIDIA APEX。 NVIDIA还提供包括Apex在内的Pytorch Docker容器。
文档
- 有关如何使用Mockeye的信息,请访问我们的文档。
- 开发人员可能对我们的开发人员指南感兴趣。
较旧的版本
- Mockeye 3.0,基于Pytorch&Mxnet 2.x,可在
sockeye_30分支中获得。 -
sockeye_2分支可用,以MXNET GLUON API为基础,Sockeye 2.x可用。 -
sockeye_1分支可用,基于MXNET模块API,Sockeye 1.x可用。
引用
有关Cokeye的更多信息,请参见我们的论文(Bibtex)。
大厦3.x
Felix Hieber,Michael Denkowski,Tobias Domhan,Barbara Darques Barros,Celina Dong Ye,Xing Niu,Cuong Hoang,Ke Tran,Benjamin Hsu,Maria Nadejde,Surafel Lakew,Prashant Mathur,Prashant Mathur,Anna Currey,Marcello Federico。 Sockeye 3:带Pytorch的快速神经机器翻译。 Arxiv电子打印。
大厦2.x
Tobias Domhan,Michael Denkowski,David Vilar,Xing Niu,Felix Hieber,Kenneth Heafiel。 Amta 2020年的Mokeye 2 Neural Machine Translation Toolkit。
Felix Hieber,Tobias Domhan,Michael Denkowski,David Vilar。 Mockeye 2:用于神经机器翻译的工具包。欧洲机器翻译协会第22届年度会议,项目轨道(EAMT'20)。
大厦1.x
Felix Hieber,Tobias Domhan,Michael Denkowski,David Vilar,Artem Sokolov,Ann Clifton,Matt Post。 AMTA 2018上的红色神经机器翻译工具包。美洲机器翻译协会第13届会议论文集(AMTA'18)。
Felix Hieber,Tobias Domhan,Michael Denkowski,David Vilar,Artem Sokolov,Ann Clifton和Matt Post。 2017。Sockeye:神经机器翻译的工具包。 Arxiv电子打印。
与Cokeye的研究
大海已被用于学术和工业研究。下面显示了使用Sockeye的已知出版物列表。如果您了解更多,请告诉我们或提交拉动请求(最后更新:2022年5月)。
2023
- Zhang,Xuan,Kevin Duh,Paul McNamee。 “神经机器翻译研究的超参数优化工具包”。 ACL论文集(2023)。
2022
- Currey,Anna,MariaNădejde,Raghavendra Pappagari,Mia Mayer,Stanislas Lauly,Xing Niu,Benjamin Hsu,Georgiana Dinu。 “ MT-Geneval:一种反事实和上下文数据集,用于评估机器翻译中的性别准确性”。 EMNLP论文集(2022)。
- Domhan,Tobias,Eva Hasler,Ke Tran,Sony Trenous,Bill Byrne和Felix Hieber。 “魔鬼在细节上:关于神经机器翻译中词汇选择的陷阱”。 NAACL-HLT论文集(2022)
- Fischer,Lukas,Patricia Scheurer,Raphael Schwitter,Martin Volk。 “从拉丁语到德语的16世纪字母的机器翻译”。历史和古代语言语言技术研讨会(2022)。
- 诺尔斯,丽贝卡,帕特里克·利特尔。 “翻译记忆是低资源机器翻译的基线”。 LREC论文集(2022)
- McNamee,Paul,Kevin Duh。 “多语言微博翻译语料库:改进和评估用户生成的文本的翻译”。 LREC论文集(2022)
- Nadejde Maria,Anna Currey,Benjamin Hsu,Xing Niu,Marcello Federico,Georgiana Dinu。 “可可-MT:对比度受控MT的数据集和基准,并应用正式”。 NAACL会议录(2022)。
- Weller-Di Marco,Marion,Matthias Huck,Alexander Fraser。 “在神经机器翻译中建模目标侧形态:策略的比较”。 ARXIV预印型ARXIV:2203.13550(2022)
2021
- Bergmanis,Toms,MārcisPinnis。 “促进具有目标引理注释的术语翻译”。 ARXIV预印型ARXIV:2101.10035(2021)
- Briakou,Eleftheria,Marine Carpuat。 “超越噪声:减轻细粒语义差异对神经机器翻译的影响”。 Arxiv预印型ARXIV:2105.15087(2021)
- Hasler,Eva,Tobias Domhan,Sony Trenous,Ke Tran,Bill Byrne,Felix Hieber。 “改善神经机器翻译多域适应的质量权衡”。 EMNLP论文集(2021)
- 唐,贡博,菲利普·罗恩,里科·森恩里奇,乔基姆·尼夫尔。 “在神经机器翻译中重新审视否定”。计算语言学协会的交易9(2021)
- Vu,Thuy,Alessandro Moschitti。 “通过网络自动培训数据选择机器翻译自定义”。 ARXIV预印型ARXIV:2102.1024(2021)
- Xu,韦吉亚,海洋拼车。 “编辑器:基于编辑的变压器,并重新定位具有软词汇约束的神经机器翻译。”计算语言学协会的交易9(2021)
- Müller,Mathias,Rico Sennrich。 “了解最小贝叶斯在神经机器翻译中风险解码的特性”。计算语言学协会和第11届国际自然语言处理联合会议的第59届年会论文集(第1卷:长论文)(2021年)
- Popović,Maja,Alberto Poncelas。 “用户评论的机器翻译。” RANLP论文集(2021)
- Popović,Maja。 “关于观察到的MT错误的自然和原因。”第18 MT峰会论文集(第1卷:研究轨道)(2021)
- Jain,Nishtha,MajaPopović,Declan Groves,Eva Vanmassenhove。 “为NLP生成性别增强数据。”关于自然语言处理中性别偏见的第三届研讨会论文集(2021)
- Vilar,David,Marcello Federico。 “字节对编码的统计扩展。” IWSLT论文集(2021)
2020
- 迪努(Dinu),乔治亚娜(Georgiana),普拉什特·马图尔(Prashant Mathur),马塞洛·费德里科(Marcello Federico),斯坦尼斯拉斯·莱利(Stanislas Lauly),Yaser Al-noazan。 “端到端本地化的联合翻译和单位转换。” IWSLT论文集(2020)
- Exel,Miriam,Bianka Buschbeck,Lauritz Brandt,Simona Doneva。 “ SAP处的术语受术语受限的神经机译”。 Eamt会议录(2020)。
- Hisamoto,Sorami,Matt Post,Kevin Duh。 “会员资格推断对序列到序列模型的攻击:我的机器翻译系统中的数据是吗?”计算语言学协会的交易,第8卷(2020)
- Naradowsky,Jason,Xuan Zhan,Kevin Duh。 “从匪徒反馈中选择机器翻译系统。” ARXIV预印ARXIV:2002.09646(2020)
- Niu,Xing,Prashant Mathur,Georgiana Dinu,Yaser Al-azonizan。 “评估对神经机器翻译的输入扰动的鲁棒性”。 ARXIV预印ARXIV:2005.00580(2020)
- Niu,Xing,海洋拼车。 “通过合成监督控制神经机器的形式。” AAAI论文集(2020)
- Keung,Phillip,Julian Salazar,Yichao Liu,Noah A. Smith。 “通过自我训练的上下文嵌入,无监督的bitext挖掘和翻译。” ARXIV预印型ARXIV:2010.07761(2020)。
- Sokolov,Alex,Tracy Rohlin,Ariya Rastrow。 “用于多语言谱系到词素转换的神经机器翻译。” Arxiv预印型ARXIV:2006.14194(2020)
- Stafanovičs,Artūrs,Toms Bergmanis,MārcisPinnis。 “通过目标性别注释来减轻机器翻译中的性别偏见。” ARXIV预印ARXIV:2010.06203(2020)
- Stojanovski,Dario,Alexander Fraser。 “在神经机器翻译中使用文档级上下文来解决零资源域。” ARXIV预印型预印型ARXIV:2004.14927(2020)
- Stojanovski,Dario,Benno Krojer,Denis Peskov,Alexander Fraser。 “违反:机器翻译的对比核心分析模板”。殖民论文集(2020)
- 张,Xuan,凯文·杜(Kevin Duh)。 “可再现和有效的基准测试,用于神经机器翻译系统的高参数优化。”计算语言学协会的交易,第8卷(2020)
- Swe Zin Moe,Ye Kyaw Thu,Hnin Aye Thant,Nandar Win Min和Thepchai Supnithi,“缅甸手语和缅甸语言之间的无监督神经机器翻译”,《智能信息学和智能技术杂志》,2020年4月1日,2020年,第53-61页,第53-61页。 (2019年12月21日提交; 2020年3月6日接受; 2020年3月16日修订;在线发布于2020年4月30日)
- thazin myint oo,ye kyaw thu,khin mar soe和thepchai supnithi,“缅甸(缅甸)和达维(Tavoyan)之间的神经机器”,在第18届国际计算机应用国际会议上(ICCA 2020),2720年2月2720年,2020年,Yangon,Myangon,Myanmar,PPP,PP。
- Müller,Mathias,Annette Rios,Rico Sennrich。 “神经机器翻译中的域鲁棒性”。 AMTA论文集(2020)
- Rios,Annette,MathiasMüller,Rico Sennrich。 “子词细分和单个桥式语言会影响零拍神经机器的翻译。”第五WMT论文集:研究论文(2020)
- Popović,Maja,Alberto Poncelas。 “类似的南拉语语言之间的神经机器翻译。”第五WMT论文集:研究论文(2020)
- Popović,Maja,Alberto Poncelas。 “使用字符n-gram匹配从不干净的平行数据中正确对齐段。”语言技术与数字人文学科会议论文集(JTDH 2020)。
- Popović,Maja,Alberto Poncelas,Marija Brkic,Andy Way。 “神经机器翻译,用于转化为克罗地亚和塞尔维亚人。” NLP的第七次研讨会论文集,类似语言,品种和方言(2020)
2019
- Agrawal,Sweta,海洋剧院。 “控制神经机器翻译中的文本复杂性。” EMNLP论文集(2019年)
- 贝克,丹尼尔,特雷弗·科恩,戈拉姆雷扎·哈法利。 “使用晶格转换和图形网络的神经语音翻译。” TextGraphs-13论文集(EMNLP 2019)
- Currey,Anna,Kenneth Heafiel。 “带有单语枢轴数据的零资源神经机器翻译。” EMNLP论文集(2019年)
- 古普塔(Gupta),普拉巴卡(Prabhakar),玛雅克·夏尔马(Mayank Sharma)。 “数字娱乐内容字幕的无监督翻译质量估计。” IEEE国际语义计算杂志(2019)
- Hu,J。Edward,Huda Khayrallah,Ryan Culkin,Patrick Xia,Tongfei Chen,Matt Post和Benjamin van Durme。 “改进了词汇约束解码,用于翻译和单语的重写。” NAACL-HLT论文集(2019)
- Rosendahl,Jan,Christian Herold,Yunsu Kim,MiguelGraça,Weiyue Wang,Parnia Bahar,Yingbo Gao和Hermann Ney“ Rwth Aachen University University Machine Translion Systems for WMT 2019”
- 汤普森,布莱恩,杰里米·格温纳普,哈达·哈拉拉,凯文·杜和菲利普·科恩。 “在神经机器翻译的域适应域中,克服了灾难性的遗忘。” NAACL-HLT 2019(2019)论文集
- Tättar,Andre,Elizaveta Korotkova,Mark Fishel“ Tartu大学的多语言多域WMT19新闻翻译共享任务提交”第四级WMT论文集:研究论文(2019)
- thazin myint oo,ye kyaw thu和khin mar soe,“缅甸(缅甸)和rakhine(arakanese)之间的神经机器”,在NLP的第六次针对类似语言,品种和言语的NLP研讨会上
2018
- Domhan,Tobias。 “您需要多少关注?对神经机器翻译体系结构的颗粒状分析”。第56 ACL论文集(2018年)
- Kim,Yunsu,Yingbo Gao和Hermann Ney。 “神经机器翻译模型的有效跨语性转移,而无需共享词汇。” Arxiv预印型ARXIV:1905.05475(2019)
- Korotkova,Elizaveta,Maksym Del和Mark Fishel。 “单语和跨语言的零拍传输。” ARXIV预印型ARXIV:1808.00179(2018)
- Niu,Xing,Michael Denkowski和Marine Carpuat。 “带有合成平行数据的双向神经机器翻译。” Arxiv预印型ARXIV:1805.11213(2018)
- Niu,Xing,Sudha Rao和Marine Carpuat。 “多任务神经模型,用于在语言内部和语言之间翻译样式。” Coling(2018)
- 邮报,马特和大卫·维拉尔。 “通过动态束分配的神经机器翻译,快速词汇约束解码。” NAACL-HLT论文集(2018)
- Schamper,Julian,Jan Rosendahl,Parnia Bahar,Yunsu Kim,Arne Nix和Hermann Ney。 “ Aachen University的RWTH ACHEN UNIVERSTION MACHICEND MANICARE TRANSULATION SYSTEMS 2018年。”第三WMT论文集:共享任务文件(2018)
- Schulz,Philip,Wilker Aziz和Trevor Cohn。 “神经机器翻译的随机解码器。” ARXIV预印型ARXIV:1805.10844(2018)
- Tamer,Alkouli,Gabriel Bretschner和Hermann Ney。 “关于基于注意力集中的神经机器翻译中的对齐问题。”第三WMT论文集:研究论文(2018)
- 唐,贡博,里科·森恩里奇和乔基姆·尼夫尔。 “注意机制的分析:神经机器翻译中的单词感觉歧义的情况。”第三WMT论文集:研究论文(2018年)
- 汤普森,布莱恩,哈达·哈拉拉,安东尼奥斯·阿纳斯塔索普洛斯,艾莉亚·麦卡锡,凯文·杜(Kevin Duh),丽贝卡·马文(Rebecca Marvin),保罗·麦克纳梅(Paul McNamee),杰里米·格温纳普(Jeremy Gwinnup),蒂姆·安德森(Tim Anderson)和菲利普·科恩(Philipp Koehn)。 “冻结子网以分析神经机器翻译中的域的适应性。” Arxiv预印型ARXIV:1809.05218(2018)
- 维拉,大卫。 “学习隐藏的单元贡献,以适应神经机器翻译模型。” NAACL-HLT论文集(2018)
- Vyas,Yogarshi,Xing niu和Marine Carpuat“在没有注释的情况下以平行文本来识别语义差异”。 NAACL-HLT论文集(2018)
- Wang,Weiyue,Derui Zhu,Tamer Alkhouli,Zixuan Gan和Hermann Ney。 “机器翻译的神经隐藏模型”。第56 ACL论文集(2018年)
- Zhang,Xuan,Gaurav Kumar,Huda Khayrallah,Kenton Murray,Jeremy Gwinnup,Marianna J Martindale,Paul McNamee,Kevin Duh和Marine Carpuat。 “神经机器翻译的课程学习的经验探索。” Arxiv预印型ARXIV:1811.00739(2018)
- Swe Zin Moe,Ye Kyaw Thu,Hnin Aye Thant和Nandar Win Min,“缅甸手语和缅甸文字之间的神经机器翻译”,在第二届《光学性质识别和自然语言识别和自然语言处理技术》的区域会议上,2018年12月13-14日,2018年12月13-14日,2018年12月13日,2018年12月14日,Phnom Pen,Cambod,Cambod。
- 唐,贡博,马蒂亚斯·穆勒,安妮特·里奥斯和里科·森恩里奇。 “为什么要自我注意?对神经机器翻译体系结构的有针对性评估。” EMNLP论文集(2018)
2017
- Domhan,Tobias和Felix Hieber。 “通过多任务学习,使用目标侧单语言数据进行神经机器翻译。” EMNLP论文集(2017年)。