Лучшие языковые модели и их последствия
Наша модель, называемая GPT-2 (преемник GPT), была обучена просто предсказать следующее слово в 40 ГБ интернет-текста. Благодаря нашей опасениям по поводу злонамеренного применения технологии, мы не выпускаем обученную модель. В качестве эксперимента по ответственному раскрытию, мы вместо этого выпускаем гораздо меньшую модель для исследователей для экспериментов, а также технической статьи. из блога Openai
Этот репозиторий является простой реализацией GPT-2 о текстовом генераторе в Pytorch с Compress Code
Оригинальный репертуар openai/gpt-2. Также вы можете прочитать бумагу о GPT-2, «Языковые модели-это неконтролируемые многозадачные ученики». Чтобы понять более подробную концепцию, я рекомендую статьи о модели трансформатора.
Хорошая реализация GPT-2 в Pytorch, на которую я упомянул, HuggingFace/Pytorch-представленное берт, вы можете увидеть более подробную реализацию в репозитории HuggingFace.
Трансформатор (самопринятие) бумага: Внимание-это все, что вам нужно (2017)
Первая статья OpenAI-GPT: улучшение понимания языка путем генеративного предварительного обучения (2018)
Смотрите блог Openai о GPT-2 и Paper
$ git clone https://github.com/graykode/gpt-2-Pytorch && cd gpt-2-Pytorch
# download huggingface's pytorch model
$ curl --output gpt2-pytorch_model.bin https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-pytorch_model.bin
# setup requirements, if using mac os, then run additional setup as descibed below
$ pip install -r requirements.txt$ python main.py --text " It was a bright cold day in April, and the clocks were striking thirteen. Winston Smith, his chin nuzzled into his breast in an effort to escape the vile wind, slipped quickly through the glass doors of Victory Mansions, though not quickly enough to prevent a swirl of gritty dust from entering along with him. "--text : предложение с самого начала.--quiet : не печатать все посторонние вещи, такие как "================"--nsamples : количество выборки, пробранных в партии, когда используется многономиальная функция--unconditional : если это правда, безусловное поколение.--batch_size : количество размера партии--length : длина предложения (<количество контекста)--temperature : термодинамическая температура в распределении (default 0.7)--top_k : возвращает самые большие k самые большие элементы данного входного тензора вдоль данного измерения. (default 40) Смотрите больше подробностей о temperature и top_k здесь
$ python3 -m venv venv
$ source venv/bin/activate
$ pip install torch tqdm
$ brew install libomp
$ export LC_ALL=en_US.UTF-8
$ export LANG=en_US.UTF-8
$ pip install -r requirements.txtДжефф Ву (@wuthefwasthat), Томас Вольф (@thomwolf) за разрешение направлять код.