Readme- 老司机版
Corpus + Code + Modèle formé pour "passer le mème" Bilibili.
Ce référentiel pourrait aider à étudier la propagation des rumeurs de bouche à oreille, en particulier sur la façon dont les gens reformulatent et font une rumeur (ou un fait) de plus en plus choquant (parfois drôle) lorsqu'ils le transmettent indéfiniment ...
Pendant ce temps, "Pass It On" est également un mème de Bilibili. Les gens écrivaient des commentaires sur des vidéos ou des articles essayant de mal interpréter délibérément ce que signifie le téléchargeur à l'origine, entraînant une propagation de bouche à oreille drôle.
python 3.6
tensorflow 1.14.0
bert4keras 0.10.6
jieba
Nous fournissons un corpus avec des commentaires de Bilibili 3W en utilisant le modèle de "passer le mème de bilibili (à savoir, des commentaires qui commencent par" passez-le "))
Nous avons principalement rampé les commentaires vidéo / publiques des «Top 100 Uploaders of the Year» au cours des 3 dernières années. Plusieurs canaux avec des millions d'adeptes tels que l'impact de Genshin sont également inclus. Notez que le corpus est loin d'être suffisamment grand pour représenter la distribution complète de l'utilisateur / des commentaires de Bilibili.
Les données d'origine sont enregistrées en tant que "Corpus.json" dans le dossier de données, et c'est une liste de dictionnaire.
{
"context": {
"bvid": "BV1Gb4y167gE",
"uid": "476704454"
},
"rumors": [
{
"source": "热情的舟山人民把小文哥当海鲜吃了",
"propagations": []
},
{
"source": "5147779123",
"propagations": [
"舟山的海鲜把小文哥吃了",
"舟山的海鲜想让小文哥吃人",
"热情的小文哥把海鲜当成舟山人民吃了",
"小文哥热情地把舟山上的海鲜吃了",
"热情的海鲜在舟山到处吃小文哥",
"热情的舟山海鲜把小文哥给吃了。",
"舟山的热情海鲜把小文哥吃了",
"小文哥带着热情的海鲜把舟山吃了"
]
},
{
"source": "小文哥把舟山人民配海鲜吃了",
"propagations": []
}
]
},
{
"context": {
"bvid": "BV1Bw411d7r8",
"uid": "476704454"
},
"rumors": [
{
"source": "小文哥吃了兄弟家一山头的桃",
"propagations": []
}
]
}
Toutes les données sont collectées dans la vidéo de Bilibili ou publient des commentaires. Lorsque quelqu'un écrit un commentaire avec des modèles «passer le pass sur», d'autres suivaient souvent et laissaient des sous-commentaires avec le même modèle. Par exemple,
a comment : pass it on, the uploader says he likes this girl.
sub-comment-1: pass it on, the uploader likes to be a girl
sub-comment-2: pass it on, the uploader likes to be a boy
sub-comment-3: pass it on, the uploader is a girl
...
Pour chaque élément de Data / Corpus.json
context: # so that one could refer to source page
bvid: # video (post) id
uid: # user (uploader) id
rumors: # a list containing rumors
[
{
source: # source of rumors, might be a comment or just a comment_id (if source has no "pass it on" pattern)
propagations: # list of sub-comments, spreading the source in time order
},
{source, propagations},
{source, propagations},
...
]
Nous dérivons également "Data / Train.Samples", les données de formation avec un format commun de "phrase1 t phrase2" ligne par ligne. Il contient 290 000 paires de peines.
Nous traitons la tâche simplement comme une génération de texte typique:
La tâche est similaire à la paraphrasage du texte (générant des phrases similaires), mais cette fois malgré une formulation de phrase similaire, nous voulons également un changement sémantique exprès.
En outre, il y a un autre défi qui réside dans la relation un-à-plusieurs entre la source et les propagations.
Nous profitons du modèle de génération-puis-the-rank roformer-sim comme notre épine dorsale, car c'est un bon texte paraphrasant la ligne de base. En outre, afin de modéliser la relation un-à-plusieurs des propagations source comme indiqué précédemment, nous ajoutons une variable latente de manière Plato, où un jeton spécial est préventé au texte d'entrée représentant une variable latente. Par conséquent, l'apprentissage est aussi légèrement différent.
Remarque: nous ne sommes pas sûrs à 100% que notre implémentation de modèle de type Platon est correcte [Doge]
Nous ouverts notre modèle à usage public. Il s'agit d'un modèle Roformer modifié à 12 couches.
Google Drive
Remarque $ your_model_path Le répertoire du modèle du modèle téléchargé, vous pouvez alors utiliser la ligne de commande pour effectuer l'inférence comme suit:
python train_latent.py --do_predict --model_dir=$your_model_path --n=1 --topp=0.8 --text=any_text
input: up主喜欢小天使
========== predict:
传下去,up主疑似在天堂被天台感动
传下去,up喜欢天穹
传下去,up主家里有天星
传下去,天使喜欢戴眼镜的up主
传下去,up没有天堂
传下去,up叫天台来烤粉丝。
传下去,up每天早上要直播露脸
传下去,up下天生孩子
传下去,up到天台高产了
传下去,up上天堂了
传下去,up和天使吃了
传下去,楼主的那个帅小伙要穿天堂
传下去,up要cos女巫直播
传下去,天堂大up要爽了
传下去,up下天生孩子翻车了
传下去,up不是人
传下去,天天抽一个up吃8个小孩
传下去,三天之后,up主要被魅魔掏心脏了
input: 帝君喜欢吃花生米
========== predict:
传下去,帝君喜欢吃干净的小孩子。
传下去,帝君喜欢捆绑
传下去,帝君用生煎包吃花生米
传下去,帝君吃傻子吃腻了
传下去,喜欢帝君的来自花生米
传下去,花生米吃帝君
传下去,神像吃吃沙子
传下去,我吃帝君屁股
传下去,帝君身边有个米哈游
传下去,帝君只剩干了
传下去,仙跳墙使帝君心疼
传下去,帝君今天上了小通宵
传下去,帝君上床了
传下去,帝君没有下半身
传下去,帝君要炸百京贵妇
传下去,十个视频有了帝君
传下去,帝君会喂食尘神当生日礼物
传下去,视频下一次更新十个帝君
传下去,这个视频里有一年的课代表
input: 川建国要复辟了
========== predict:
传下去,川建国想要
传下去,川宝上任国君了
传下去,川宝变艾伦了
传下去,《不要传传》
传下去,川宝有天火了。
传下去,阿舅变成了川宝
传下去,川宝长大了也不会忘开
传下去,《川宝要制杖》
传下去,总之,川宝喜欢新衣服
传下去,齐格飞要斩四郎
传下去,老八要吃了川宝
传下去,川普不喜欢制杖
传下去,川团老表是孙笑川
传下去,三叔写盗墓笔记
传下去,川宝没有才浅是制杖
传下去,《川宝喜欢才浅制杖》
传下去,我要吃川宝老爷子
传下去,《我才是川宝喜欢的人》
传下去,全世界辣鸡都不用吃川宝!
传下去,有人冒充川宝想被粉丝上
Par défaut, nous nous entraînons pour 10 époques avec Batch_size = 128. Il est encouragé à appliquer un point de contrôle pré-entraîné. (Par exemple, à la ligne 30, Checkpoint_Path = "Chinese_Roformer-Sim-Char-FT_L-12_H-768_A-12")
python train_latent.py --model_dir=$your_model_dir --train=data/train.samples
Comme il s'agit d'une méthode totalement axée sur les données, ce modèle peut générer des phrases étranges ou non fluide pour des entrées invisibles ou hors du domaine, ce qui est tout à fait raisonnable.
Soit dit en passant, tout corpus intéressant supplémentaire est accueilli.