读取者
语料库 +代码 +训练有素的模型,用于“通过”比利比利模因。
这个存储库可能有助于研究口碑谣言的传播,尤其是关于人们如何重新重现和发出谣言(或事实)时越来越令人震惊(有时很有趣),当他们不断地传播时...
同时,“传递”也是比利比利的模因。人们会对视频或帖子发表评论,试图故意误解上传者最初的含义,从而导致有趣的口碑传播。
python 3.6
tensorflow 1.14.0
bert4keras 0.10.6
jieba
我们使用“通过” bilibili Meme的模式提供了一个3W Bilibili评论的语料库(即,以“传递”开头的评论,)
在过去的3年中,我们主要爬了“年度最佳上传者”的视频/发表评论。还包括数百万追随者(例如Genshin撞击)的几个渠道。请注意,该语料库远远不够大,可以代表完整的Bilibili用户/注释分发。
原始数据在数据文件夹中保存为“ corpus.json”,它是字典列表。
{
"context": {
"bvid": "BV1Gb4y167gE",
"uid": "476704454"
},
"rumors": [
{
"source": "热情的舟山人民把小文哥当海鲜吃了",
"propagations": []
},
{
"source": "5147779123",
"propagations": [
"舟山的海鲜把小文哥吃了",
"舟山的海鲜想让小文哥吃人",
"热情的小文哥把海鲜当成舟山人民吃了",
"小文哥热情地把舟山上的海鲜吃了",
"热情的海鲜在舟山到处吃小文哥",
"热情的舟山海鲜把小文哥给吃了。",
"舟山的热情海鲜把小文哥吃了",
"小文哥带着热情的海鲜把舟山吃了"
]
},
{
"source": "小文哥把舟山人民配海鲜吃了",
"propagations": []
}
]
},
{
"context": {
"bvid": "BV1Bw411d7r8",
"uid": "476704454"
},
"rumors": [
{
"source": "小文哥吃了兄弟家一山头的桃",
"propagations": []
}
]
}
所有数据均从比利比利视频或发表评论中收集。当某人用“传递”图案写评论时,其他人通常会跟随并留下相同模式的子手段。例如,
a comment : pass it on, the uploader says he likes this girl.
sub-comment-1: pass it on, the uploader likes to be a girl
sub-comment-2: pass it on, the uploader likes to be a boy
sub-comment-3: pass it on, the uploader is a girl
...
对于数据/语料库中的每个元素
context: # so that one could refer to source page
bvid: # video (post) id
uid: # user (uploader) id
rumors: # a list containing rumors
[
{
source: # source of rumors, might be a comment or just a comment_id (if source has no "pass it on" pattern)
propagations: # list of sub-comments, spreading the source in time order
},
{source, propagations},
{source, propagations},
...
]
我们还得出了“数据/列车”,这是逐行的“句子1 t句子2”行的常见格式的训练数据。它包含290,000个句子对。
我们将任务视为典型的文本生成:
该任务类似于文本释义(生成相似的句子),但是这次尽管句子配方相似,但我们也希望在目的上进行语义转移。
此外,还有另一个挑战在于来源与传播之间的一对多关系。
我们利用Roformer-SIM预读的一代模型作为我们的骨干,因为这是一个很好的文本释义基线。此外,为了对以前指出的一对多关系进行建模,我们以柏拉图的方式添加潜在变量,其中预先将特殊的令牌添加到代表潜在变量的输入文本。因此学习也略有不同。
注意:我们不能100%确定我们的类似柏拉图的模型实现是正确的[Doge]
我们开源的模型供公众使用。这是一个12层修改的Roformer模型。
Google Drive
注意$ your_model_path下载模型的模型目录,然后您可以使用命令行执行推断,如下所示:
python train_latent.py --do_predict --model_dir=$your_model_path --n=1 --topp=0.8 --text=any_text
input: up主喜欢小天使
========== predict:
传下去,up主疑似在天堂被天台感动
传下去,up喜欢天穹
传下去,up主家里有天星
传下去,天使喜欢戴眼镜的up主
传下去,up没有天堂
传下去,up叫天台来烤粉丝。
传下去,up每天早上要直播露脸
传下去,up下天生孩子
传下去,up到天台高产了
传下去,up上天堂了
传下去,up和天使吃了
传下去,楼主的那个帅小伙要穿天堂
传下去,up要cos女巫直播
传下去,天堂大up要爽了
传下去,up下天生孩子翻车了
传下去,up不是人
传下去,天天抽一个up吃8个小孩
传下去,三天之后,up主要被魅魔掏心脏了
input: 帝君喜欢吃花生米
========== predict:
传下去,帝君喜欢吃干净的小孩子。
传下去,帝君喜欢捆绑
传下去,帝君用生煎包吃花生米
传下去,帝君吃傻子吃腻了
传下去,喜欢帝君的来自花生米
传下去,花生米吃帝君
传下去,神像吃吃沙子
传下去,我吃帝君屁股
传下去,帝君身边有个米哈游
传下去,帝君只剩干了
传下去,仙跳墙使帝君心疼
传下去,帝君今天上了小通宵
传下去,帝君上床了
传下去,帝君没有下半身
传下去,帝君要炸百京贵妇
传下去,十个视频有了帝君
传下去,帝君会喂食尘神当生日礼物
传下去,视频下一次更新十个帝君
传下去,这个视频里有一年的课代表
input: 川建国要复辟了
========== predict:
传下去,川建国想要
传下去,川宝上任国君了
传下去,川宝变艾伦了
传下去,《不要传传》
传下去,川宝有天火了。
传下去,阿舅变成了川宝
传下去,川宝长大了也不会忘开
传下去,《川宝要制杖》
传下去,总之,川宝喜欢新衣服
传下去,齐格飞要斩四郎
传下去,老八要吃了川宝
传下去,川普不喜欢制杖
传下去,川团老表是孙笑川
传下去,三叔写盗墓笔记
传下去,川宝没有才浅是制杖
传下去,《川宝喜欢才浅制杖》
传下去,我要吃川宝老爷子
传下去,《我才是川宝喜欢的人》
传下去,全世界辣鸡都不用吃川宝!
传下去,有人冒充川宝想被粉丝上
默认情况下,我们使用batch_size = 128训练10个时期。鼓励使用经过预定的检查站。 (例如,在第30行,checkpoint_path =“ central_roformer-sim-char-ft_l-12_h-768_a-12”)
python train_latent.py --model_dir=$your_model_dir --train=data/train.samples
由于这完全是数据驱动的方法,因此该模型可能会为看不见的或不域外输入生成怪异或非全体句子,这是相当合理的。
顺便说一句,欢迎任何其他有趣的语料库。