ReadMe- 老司机版
Corpus + Código + modelo treinado para o meme Bilibili "Pass It On".
Este repositório pode ajudar a estudar a propagação de boatos de boca em boca, especialmente sobre como as pessoas reformulam e fazem um boato (ou um fato) mais e mais chocante (às vezes engraçado) quando passam por isso e assim por diante ...
Enquanto isso, "Pass It On" também é um meme bilibili. As pessoas escreveriam comentários sobre vídeos ou postagens tentando deliberadamente interpretar mal o que o uploader significa originalmente, resultando em propagação engraçada de boca em boca.
python 3.6
tensorflow 1.14.0
bert4keras 0.10.6
jieba
Fornecemos a um corpus comentários de Bilibili 3W usando o padrão de "Pass It On" Bilibili Meme (ou seja, comentários que começam com "Pass It On")
Nós rastejamos principalmente os comentários de vídeo/post de "Os 100 principais uploads do ano" nos últimos 3 anos. Vários canais com milhões de seguidores, como o impacto de Genshin, também estão incluídos. Observe que o corpus está longe de ser grande o suficiente para representar a distribuição completa do usuário/comentário bilibili.
Os dados originais são salvos como "corpus.json" na pasta de dados e é uma lista de dicionários.
{
"context": {
"bvid": "BV1Gb4y167gE",
"uid": "476704454"
},
"rumors": [
{
"source": "热情的舟山人民把小文哥当海鲜吃了",
"propagations": []
},
{
"source": "5147779123",
"propagations": [
"舟山的海鲜把小文哥吃了",
"舟山的海鲜想让小文哥吃人",
"热情的小文哥把海鲜当成舟山人民吃了",
"小文哥热情地把舟山上的海鲜吃了",
"热情的海鲜在舟山到处吃小文哥",
"热情的舟山海鲜把小文哥给吃了。",
"舟山的热情海鲜把小文哥吃了",
"小文哥带着热情的海鲜把舟山吃了"
]
},
{
"source": "小文哥把舟山人民配海鲜吃了",
"propagations": []
}
]
},
{
"context": {
"bvid": "BV1Bw411d7r8",
"uid": "476704454"
},
"rumors": [
{
"source": "小文哥吃了兄弟家一山头的桃",
"propagations": []
}
]
}
Todos os dados são coletados no vídeo bilibili ou nos comentários. Quando alguém escreve um comentário com padrões "Pass It On", outros costumavam seguir e deixar subcomentos com o mesmo padrão. Por exemplo,
a comment : pass it on, the uploader says he likes this girl.
sub-comment-1: pass it on, the uploader likes to be a girl
sub-comment-2: pass it on, the uploader likes to be a boy
sub-comment-3: pass it on, the uploader is a girl
...
Para cada elemento em dados/corpus.json
context: # so that one could refer to source page
bvid: # video (post) id
uid: # user (uploader) id
rumors: # a list containing rumors
[
{
source: # source of rumors, might be a comment or just a comment_id (if source has no "pass it on" pattern)
propagations: # list of sub-comments, spreading the source in time order
},
{source, propagations},
{source, propagations},
...
]
Também derivamos "dados/trens.samples", os dados de treinamento com formato comum de "sentença1 t sentença2" linha por linha. Ele contém 290.000 pares de frases.
Tratamos a tarefa simplesmente como geração típica de texto:
A tarefa é semelhante ao parafraseamento de texto (gerando frases semelhantes), mas desta vez, apesar da formulação de frases semelhantes, também queremos uma mudança semântica de propósito.
Além disso, há outro desafio que está no relacionamento um para muitos entre fonte e propagações.
Aproveitamos o modelo de geração de ROFORMER-SIM, como uma espinha dorsal, já que é um bom texto parafraseando a linha de base. Além disso, para modelar a relação de propagação-fonte, como observado anteriormente, adicionamos variável latente de uma maneira Platão, onde um token especial é antecipado para inserir texto representando uma variável latente. Portanto, o aprendizado também é um pouco diferente.
NOTA: Não temos 100% de certeza de que nossa implementação de modelo semelhante a Platão está correta [DOGE]
Nós de código aberto nosso modelo para uso público. É um modelo ROFORMER modificado de 12 camadas.
Google Drive
NOTA $ Your_Model_Path O diretório de modelos do modelo baixado, então você pode usar a linha de comando para executar a inferência da seguinte forma:
python train_latent.py --do_predict --model_dir=$your_model_path --n=1 --topp=0.8 --text=any_text
input: up主喜欢小天使
========== predict:
传下去,up主疑似在天堂被天台感动
传下去,up喜欢天穹
传下去,up主家里有天星
传下去,天使喜欢戴眼镜的up主
传下去,up没有天堂
传下去,up叫天台来烤粉丝。
传下去,up每天早上要直播露脸
传下去,up下天生孩子
传下去,up到天台高产了
传下去,up上天堂了
传下去,up和天使吃了
传下去,楼主的那个帅小伙要穿天堂
传下去,up要cos女巫直播
传下去,天堂大up要爽了
传下去,up下天生孩子翻车了
传下去,up不是人
传下去,天天抽一个up吃8个小孩
传下去,三天之后,up主要被魅魔掏心脏了
input: 帝君喜欢吃花生米
========== predict:
传下去,帝君喜欢吃干净的小孩子。
传下去,帝君喜欢捆绑
传下去,帝君用生煎包吃花生米
传下去,帝君吃傻子吃腻了
传下去,喜欢帝君的来自花生米
传下去,花生米吃帝君
传下去,神像吃吃沙子
传下去,我吃帝君屁股
传下去,帝君身边有个米哈游
传下去,帝君只剩干了
传下去,仙跳墙使帝君心疼
传下去,帝君今天上了小通宵
传下去,帝君上床了
传下去,帝君没有下半身
传下去,帝君要炸百京贵妇
传下去,十个视频有了帝君
传下去,帝君会喂食尘神当生日礼物
传下去,视频下一次更新十个帝君
传下去,这个视频里有一年的课代表
input: 川建国要复辟了
========== predict:
传下去,川建国想要
传下去,川宝上任国君了
传下去,川宝变艾伦了
传下去,《不要传传》
传下去,川宝有天火了。
传下去,阿舅变成了川宝
传下去,川宝长大了也不会忘开
传下去,《川宝要制杖》
传下去,总之,川宝喜欢新衣服
传下去,齐格飞要斩四郎
传下去,老八要吃了川宝
传下去,川普不喜欢制杖
传下去,川团老表是孙笑川
传下去,三叔写盗墓笔记
传下去,川宝没有才浅是制杖
传下去,《川宝喜欢才浅制杖》
传下去,我要吃川宝老爷子
传下去,《我才是川宝喜欢的人》
传下去,全世界辣鸡都不用吃川宝!
传下去,有人冒充川宝想被粉丝上
Por padrão, treinamos para 10 épocas com batch_size = 128. É incentivado a aplicar um ponto de verificação pré -treinamento. (por exemplo, na linha 30, checkpoint_path = "chinês_roformer-sim-verificador-ft_l-12_h-768_a-12")
python train_latent.py --model_dir=$your_model_dir --train=data/train.samples
Como é totalmente um método orientado a dados, esse modelo pode gerar frases estranhas ou não fluentes para entradas invisíveis ou fora do domínio, o que é bastante razoável.
A propósito, qualquer corpus interessante adicional é bem -vindo.