gpt2 text generation
1.0.0
https://trustmeyourealive.wordpress.com/のブログデータセットでOpenaiのGPT-2を使用した微調整とテキストジェネレーション。
content-extraction :WordPress APIを使用してブログデータを抽出します
dataset :抽出されたコンテンツからのトレーニング、検証、テストデータセット
prepare_data.ipynb :データを電車、有効なテストファイルに準備します
text_generation.ipyb :準備された列車セットとテキスト生成でGPT-2を微調整します
合計トークン:246446(76記事)
語彙:50260
トレーニングセット(ライン別):2752
クローニング後に交換する必要があるtransformersのコードファイル: run_generation.py and run_language_modeling.py (text_generation.ipynbの指示)
率直に言って、私はa敬の念を抱いています - これらのシーケンスは本当に私のように聞こえます、そして私はGPT -3が(まだ)開かれていないことを非常に安心しています: