Abstractive Summarization With Transfer Learning
1.0.0
我使用了一个名为Texar的文本库,它是一个带有很多抽象的美丽库,我想说的是Scikit对于文本生成问题学习。
该体系结构背后的主要思想是使用验证的bert胶面胶模型的转移学习,我用Bert Engoder替换了编码器部分,并且Deocder是从刮擦中训练的。
使用Transfomer网络的优点之一是训练比基于LSTM的模型快得多,因为我们在变压器模型中消除了顺序行为。
基于变压器的模型会产生更彻底的正确和连贯的句子。
WGET https://storage.googleapis.com/bert_models/2018_10_18/uncased_l-12_h--768_a-112.zip UNZIP UNCASED_L-12_H-768_A-122.ZIP将故事和摘要文件放在数据文件夹下,并附上以下名称。 -train_story.txt -train_summ.txt -eval_story.txt -eval_summ.txt 每个故事和摘要都必须单行(请参阅给出的示例文本。)
步骤1: 运行预处理 Python Preprocess.py
这将在数据文件夹下创建两个Tfrecord文件。
步骤2: python main.py
模型的配置可以是从config.py文件更改
步骤3: 推理 运行命令python temprence.py 此代码运行烧瓶服务器 使用Postman发送邮政请求@http:// your_ip_address:1118/结果 带有两个形式的参数故事,摘要