Readme- 老司机版
Corpus + Code + Modelo entrenado para "pasarlo en" Bilibili meme.
Este repositorio podría ayudar a estudiar la propagación de rumores de boca en boca, especialmente sobre cómo las personas reformulan y hacen que un rumor (o un hecho) sea cada vez más impactante (a veces divertido) cuando lo pasan y actúan ...
Mientras tanto, "Pass It On" también es un meme de Bilibili. La gente escribiría comentarios sobre videos o publicaciones que intentan malinterpretar deliberadamente lo que el cargador significa originalmente, lo que resulta en una divertida propagación de boca en boca.
python 3.6
tensorflow 1.14.0
bert4keras 0.10.6
jieba
Proporcionamos a un corpus con comentarios de 3W Bilibili utilizando el patrón de "pasarlo en" bilibili meme (es decir, comentarios que comienzan con "pasarlo")
Principalmente rastreamos los comentarios de video/publicamos de "Top 100 cargadores del año" durante los últimos 3 años. También se incluyen varios canales con millones de seguidores como Genshin Impact. Tenga en cuenta que el corpus está lejos de ser lo suficientemente grande como para representar la distribución completa de usuarios/comentarios de Bilibili.
Los datos originales se guardan como "corpus.json" en la carpeta de datos, y es una lista de diccionario.
{
"context": {
"bvid": "BV1Gb4y167gE",
"uid": "476704454"
},
"rumors": [
{
"source": "热情的舟山人民把小文哥当海鲜吃了",
"propagations": []
},
{
"source": "5147779123",
"propagations": [
"舟山的海鲜把小文哥吃了",
"舟山的海鲜想让小文哥吃人",
"热情的小文哥把海鲜当成舟山人民吃了",
"小文哥热情地把舟山上的海鲜吃了",
"热情的海鲜在舟山到处吃小文哥",
"热情的舟山海鲜把小文哥给吃了。",
"舟山的热情海鲜把小文哥吃了",
"小文哥带着热情的海鲜把舟山吃了"
]
},
{
"source": "小文哥把舟山人民配海鲜吃了",
"propagations": []
}
]
},
{
"context": {
"bvid": "BV1Bw411d7r8",
"uid": "476704454"
},
"rumors": [
{
"source": "小文哥吃了兄弟家一山头的桃",
"propagations": []
}
]
}
Todos los datos se recopilan de Bilibili Video o comentarios de publicaciones. Cuando alguien escribe un comentario con patrones "Pass It on", otros a menudo seguían y dejaban subcommentos con el mismo patrón. Por ejemplo,
a comment : pass it on, the uploader says he likes this girl.
sub-comment-1: pass it on, the uploader likes to be a girl
sub-comment-2: pass it on, the uploader likes to be a boy
sub-comment-3: pass it on, the uploader is a girl
...
Para cada elemento en Data/Corpus.json
context: # so that one could refer to source page
bvid: # video (post) id
uid: # user (uploader) id
rumors: # a list containing rumors
[
{
source: # source of rumors, might be a comment or just a comment_id (if source has no "pass it on" pattern)
propagations: # list of sub-comments, spreading the source in time order
},
{source, propagations},
{source, propagations},
...
]
También derivamos "Datos/Train.samples", los datos de entrenamiento con formato común de "oración1 t oración2" línea por línea. Contiene 290,000 pares de oraciones.
Tratamos la tarea simplemente como la generación de texto típica:
La tarea es similar a la paráfrasis de texto (generando oraciones similares), pero esta vez a pesar de la formulación de oraciones similar, también queremos un cambio semántico a propósito.
Además, hay otro desafío que radica en la relación de uno a muchos entre la fuente y las propagaciones.
Aprovechamos el modelo de generación previa a la generación previa a la generación de renta y rango como nuestra columna vertebral, ya que es una buena línea de base para parafraseando el texto. Además, para modelar las propagaciones de origen uno a muchos como se señaló anteriormente, agregamos una variable latente de manera Platón, donde se prepara un token especial para ingresar el texto que representa una variable latente. Por lo tanto, el aprendizaje también es ligeramente diferente.
Nota: No estamos 100% seguros de que nuestra implementación del modelo de Platón sea correcta [dux]
Estamos de código abierto nuestro modelo para uso público. Es un modelo de rormador modificado de 12 capas.
Google Drive
Nota $ Your_Model_Path El directorio de modelos del modelo descargado, luego puede usar la línea de comandos para realizar la inferencia de la siguiente manera:
python train_latent.py --do_predict --model_dir=$your_model_path --n=1 --topp=0.8 --text=any_text
input: up主喜欢小天使
========== predict:
传下去,up主疑似在天堂被天台感动
传下去,up喜欢天穹
传下去,up主家里有天星
传下去,天使喜欢戴眼镜的up主
传下去,up没有天堂
传下去,up叫天台来烤粉丝。
传下去,up每天早上要直播露脸
传下去,up下天生孩子
传下去,up到天台高产了
传下去,up上天堂了
传下去,up和天使吃了
传下去,楼主的那个帅小伙要穿天堂
传下去,up要cos女巫直播
传下去,天堂大up要爽了
传下去,up下天生孩子翻车了
传下去,up不是人
传下去,天天抽一个up吃8个小孩
传下去,三天之后,up主要被魅魔掏心脏了
input: 帝君喜欢吃花生米
========== predict:
传下去,帝君喜欢吃干净的小孩子。
传下去,帝君喜欢捆绑
传下去,帝君用生煎包吃花生米
传下去,帝君吃傻子吃腻了
传下去,喜欢帝君的来自花生米
传下去,花生米吃帝君
传下去,神像吃吃沙子
传下去,我吃帝君屁股
传下去,帝君身边有个米哈游
传下去,帝君只剩干了
传下去,仙跳墙使帝君心疼
传下去,帝君今天上了小通宵
传下去,帝君上床了
传下去,帝君没有下半身
传下去,帝君要炸百京贵妇
传下去,十个视频有了帝君
传下去,帝君会喂食尘神当生日礼物
传下去,视频下一次更新十个帝君
传下去,这个视频里有一年的课代表
input: 川建国要复辟了
========== predict:
传下去,川建国想要
传下去,川宝上任国君了
传下去,川宝变艾伦了
传下去,《不要传传》
传下去,川宝有天火了。
传下去,阿舅变成了川宝
传下去,川宝长大了也不会忘开
传下去,《川宝要制杖》
传下去,总之,川宝喜欢新衣服
传下去,齐格飞要斩四郎
传下去,老八要吃了川宝
传下去,川普不喜欢制杖
传下去,川团老表是孙笑川
传下去,三叔写盗墓笔记
传下去,川宝没有才浅是制杖
传下去,《川宝喜欢才浅制杖》
传下去,我要吃川宝老爷子
传下去,《我才是川宝喜欢的人》
传下去,全世界辣鸡都不用吃川宝!
传下去,有人冒充川宝想被粉丝上
Por defecto, entrenamos para 10 épocas con Batch_Size = 128. Se alienta a aplicar el punto de control previamente provocado. (por ejemplo, en la línea 30, checkpoint_path = "chino_roformer-sim-char-ft_l-12_h-768_a-12")
python train_latent.py --model_dir=$your_model_dir --train=data/train.samples
Dado que es totalmente un método basado en datos, este modelo podría generar oraciones extrañas o no fluentes para entradas invisibles o fuera del dominio, lo cual es bastante razonable.
Por cierto, cualquier corpus interesante adicional es bienvenido.