gpt2 ml
V1.0 Release
中文说明| إنجليزي
| مقاس | لغة | مجموعة | المفردات | Link1 | Link2 | SHA256 |
|---|---|---|---|---|---|---|
| 1.5b params | الصينية | ~ 30g | دليل (8021 رمز) | محرك Google | بايدو بان (FFZ6) | E698CC97A7F5F706F84F58BB469D614E 51D3C0CE5F9AB9BF77E01E3FCB41D482 |
| 1.5b params | الصينية | ~ 15g | بيرت (21128 رموز) | محرك Google | بايدو بان (Q9VR) | 4A6E5124DF8DB7AC2BDD902E6191B807 A6983A7F5D09FB10CE011F9A073B183E |
Corpus من Thucnews و NLP_Chinese_Corpus
باستخدام السحابة TPU POD V3-256 لتدريب 22W خطوة

مع نقرتين فقط (لا يشملون عملية مصادقة كولاب) ، فإن عرض النموذج الصيني البالغ 1.5B مسبق جاهز للذهاب:
[دفتر كولاب]

المحتويات في هذا المستودع مخصصة لغرض البحث الأكاديمي ، ونحن لا نقدم أي ملاحظات قاطعة.
@misc{GPT2-ML,
author = {Zhibo Zhang},
title = {GPT2-ML: GPT-2 for Multiple Languages},
year = {2019},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {url{https://github.com/imcaspar/gpt2-ml}},
}
https://github.com/google-research/bert
https://github.com/rowanz/grover
الأبحاث المدعومة بـ Cloud TPUs من Cloud TensorFlow Research من Google (TFRC)
[机器之心] 只需单击三次 , 让中文 gpt-2 为你生成定制故事
[科学空间] 现在可以用 keras 玩中文 gpt2 了