나는 많은 추상화가있는 아름다운 도서관 인 Texar라는 텍스트 세대 라이브러리를 사용했습니다. 텍스트 생성 문제에 대해 배우는 것이 좋습니다.
이 아키텍처의 주요 아이디어는 사전에 사기꾼 Bert A Masked Language Model의 전송 학습을 사용하는 것입니다. 인코더 부분을 Bert Encoder로 교체했으며 Deocder는 스크래치에서 훈련됩니다.
트랜스포머 네트워크를 사용하는 장점 중 하나는 트랜스포머 모델에서 순차적 행동을 제거하므로 트랜스포머 네트워크를 사용하는 것이 LSTM 기반 모델보다 훨씬 빠릅니다.
변압기 기반 모델은보다 탁월하게 정확하고 일관된 문장을 생성합니다.
wget https://storage.googleapis.com/bert_models/2018_10_18/uncased_l-12_h-768_a-12.zip UNZIP UNCODESAD_L-12_H-768_A-12.ZIP스토리 및 요약 파일을 다음 이름으로 데이터 폴더 아래에 배치하십시오. -train_story.txt -train_summ.txt -eval_story.txt -eval_summ.txt 각 이야기와 요약은 한 줄로되어야합니다 (주어진 샘플 텍스트 참조).
11 : STEP1 :’ 전처리를 실행하십시오 Python preprocess.py
데이터 폴더 아래에 두 개의 tfrecord 파일이 생성됩니다.
Step 2: Python main.py
모델의 구성은 config.py 파일에서 변경 될 수 있습니다.
3 단계 : 3 단계 : 추론 Python inference.py 명령을 실행하십시오 이 코드는 플라스크 서버를 실행합니다 Postman을 사용하여 게시물 요청 @http : // your_ip_address : 1118/results를 보내십시오 두 가지 양식 매개 변수 스토리와 함께 요약