简体中文
教程中文教程演示视频
Neuronblocks是NLP深度学习建模工具包,可帮助工程师/研究人员构建用于NLP任务的神经网络模型培训的端到端管道。该工具包的主要目标是最大程度地减少NLP深神经网络模型建立成本的开发成本,包括培训和推理阶段。
Neuronblocks由两个主要组成部分组成:块动物园和模型动物园。
用户可以在模型动物园中选择现有的模型(配置文件)来启动模型培训,也可以通过利用块动物园中的神经网络块来创建新型号,就像玩乐一样。
注意:Neuronblocks需要Python 3.6及以上。
克隆这个项目。
git clone https://github.com/Microsoft/NeuronBlocks通过以下命令将python软件包安装在需求.txt中。
pip install -r requirements.txt安装Pytorch(神经块支持Pytorch 0.4.1及以上)。
对于Linux ,运行以下命令:
pip install " torch>=0.4.1 "对于Windows ,我们建议您按照Pytorch的说明来通过Conda安装Pytorch。
尝试通过尝试给定的示例开始。支持Linux/Windows,GPU/CPU 。对于Windows ,我们建议您使用PowerShell代替CMD。
提示:在以下指令中,ProjectRoot表示该项目的根目录。
# train
cd PROJECT_ROOT
python train.py --conf_path=model_zoo/demo/conf.json
# test
python test.py --conf_path=model_zoo/demo/conf.json
# predict
python predict.py --conf_path=model_zoo/demo/conf.json为了预测,神经块具有两种模式:互动和批处理。
# use the above example
# interactive prediction
python predict.py --conf_path=model_zoo/demo/conf.json --predict_mode= ' interactive ' # use the above example
# batch prediction
python predict.py --conf_path=model_zoo/demo/conf.json --predict_mode= ' batch ' --predict_data_path=dataset/demo/predict.tsv有关更多详细信息,请参阅tutorial.md和代码文档。
在使用神经网络模型来解决NLP问题时面临以下挑战的工程师或研究人员:
利用神经块进行NLP神经网络模型培训的优势包括:
模型构建:对于模型构建和参数调整,用户只需要编写简单的JSON配置文件,这大大最大程度地减少了实施新想法的努力。
模型共享仅通过JSON文件而不是讨厌的代码共享模型非常容易。对于不同的模型或任务,我们的用户只需要维护一个单一的集中式源代码库即可。
代码可重复性:可以在各种模型或任务上轻松共享常见块,从而减少重复的编码工作。
平台灵活性:使用CPU和GPU,神经块可以在Linux和Windows机器上同时运行。它还支持Philly和Pai等GPU平台上的培训。
| CPU推断 | 单GPU推理 | 多GPU推断 | |
| CPU火车 | ✓ | ✓ | ✓ |
| 单GPU火车 | ✓ | ✓ | ✓ |
| 多GPU火车 | ✓ | ✓ | ✓ |
模型可视化:为可视化和配置正确性检查提供了模型可视化器,该检查可帮助用户在调试过程中轻松可视化模型体系结构。
可扩展性:神经块是可扩展的,使用户可以贡献新的块或贡献新型模型(JSON文件)。
神经块以开放模型运行。它是由Microsoft的STCA NLP组设计和开发的。学术界和行业的贡献也非常欢迎。有关更多详细信息,请参阅贡献。md。
强烈鼓励任何熟悉的人贡献代码。
Neuronblocks-构建您的NLP DNN模型,例如玩乐高。 EMNLP 2019 ,https://arxiv.org/abs/1904.09535。
@article{gong2019neuronblocks,
title={NeuronBlocks--Building Your NLP DNN Models Like Playing Lego},
author={Gong, Ming and Shou, Linjun and Lin, Wutao and Sang, Zhijie and Yan, Quanjia and Yang, Ze, Cheng, Feixiang and Jiang, Daxin},
journal={arXiv preprint arXiv:1904.09535},
year={2019}
}
版权(C)Microsoft Corporation。版权所有。
根据MIT许可获得许可。
如有任何疑问,请联系[email protected]
如果您有微信,也可以添加以下帐户: