Readme- 老司机版
Corpus + Code + trainiertes Modell für "Pass auf" Bilibili Meme.
Dieses Repository könnte dazu beitragen, Mundpropaganda-Gerüchte zu untersuchen, insbesondere darüber, wie Menschen ein Gerücht (oder eine Tatsache) immer schockierender (manchmal lustig) machen, wenn sie es weiter und weiter weitergeben ...
In der Zwischenzeit ist "Pass It On" auch ein Bilibili -Mem. Die Leute würden Kommentare zu Videos oder Beiträgen schreiben, die versuchen, absichtlich falsch zu interpretieren, was der Uploader ursprünglich bedeutet, was zu einer lustigen Mundpropaganda führt.
python 3.6
tensorflow 1.14.0
bert4keras 0.10.6
jieba
Wir bieten einen Korpus mit 3W -Bilibili -Kommentaren mit dem Muster von "Pass auf" Bilibili Meme (nämlich Kommentare ", die mit" Pass an "beginnen,,)
Wir haben in den letzten 3 Jahren hauptsächlich Video-/Post -Kommentare von "Top 100 Uploaders of the Year" gekrabbelt. Es sind ebenfalls mehrere Kanäle mit Millionen von Followern wie Genshin -Auswirkungen enthalten. Beachten Sie, dass der Korpus alles andere als groß genug ist, um die volle Bilibili -Benutzer-/Kommentarverteilung darzustellen.
Die ursprünglichen Daten werden im Datenordner als "corpus.json" gespeichert und handelt es sich um eine Liste von Wörterbuch.
{
"context": {
"bvid": "BV1Gb4y167gE",
"uid": "476704454"
},
"rumors": [
{
"source": "热情的舟山人民把小文哥当海鲜吃了",
"propagations": []
},
{
"source": "5147779123",
"propagations": [
"舟山的海鲜把小文哥吃了",
"舟山的海鲜想让小文哥吃人",
"热情的小文哥把海鲜当成舟山人民吃了",
"小文哥热情地把舟山上的海鲜吃了",
"热情的海鲜在舟山到处吃小文哥",
"热情的舟山海鲜把小文哥给吃了。",
"舟山的热情海鲜把小文哥吃了",
"小文哥带着热情的海鲜把舟山吃了"
]
},
{
"source": "小文哥把舟山人民配海鲜吃了",
"propagations": []
}
]
},
{
"context": {
"bvid": "BV1Bw411d7r8",
"uid": "476704454"
},
"rumors": [
{
"source": "小文哥吃了兄弟家一山头的桃",
"propagations": []
}
]
}
Alle Daten werden aus Bilibili -Videos oder Post -Kommentaren gesammelt. Wenn jemand einen Kommentar mit "Pass auf" Muster schreibt, folgten andere oft und hinterließ die Unterfassungen mit demselben Muster. Zum Beispiel,
a comment : pass it on, the uploader says he likes this girl.
sub-comment-1: pass it on, the uploader likes to be a girl
sub-comment-2: pass it on, the uploader likes to be a boy
sub-comment-3: pass it on, the uploader is a girl
...
Für jedes Element in Data/corpus.json
context: # so that one could refer to source page
bvid: # video (post) id
uid: # user (uploader) id
rumors: # a list containing rumors
[
{
source: # source of rumors, might be a comment or just a comment_id (if source has no "pass it on" pattern)
propagations: # list of sub-comments, spreading the source in time order
},
{source, propagations},
{source, propagations},
...
]
Wir leiten auch "Data/Train. -Sampel" ab, die Trainingsdaten mit dem gemeinsamen Format der Zeile "Satz1 t SURT2". Es enthält 290.000 Satzpaare.
Wir behandeln die Aufgabe einfach als typische Textgenerierung:
Die Aufgabe ähnelt dem Text -Paraphrasierung (ähnliche Sätze), aber diesmal möchten wir trotz ähnlicher Satzformulierung auch eine semantische Verschiebung absichtlich.
Außerdem gibt es eine weitere Herausforderung, die in der Eins-zu-Viele-Beziehung zwischen Quelle und Propagationen liegt.
Wir nutzen von Roformer-Sim-Vorbereitungs-Generation-Then-Rang-Modell als unser Rückgrat, da es sich um eine gute Textbasis handelt. Um die Eins-zu-Viele-Beziehung der Quellpropagationen wie bereits erwähnt zu modellieren, fügen wir latente Variable auf Platon-Weise hinzu, wobei ein spezielles Token darauf vorbereitet ist, Text einzugeben, das eine latente Variable darstellt. Daher ist das Lernen auch etwas anders.
Hinweis: Wir sind uns nicht zu 100% sicher, dass unsere Plato-ähnliche Modellimplementierung korrekt ist [Doge]
Wir haben unser Modell für die öffentliche Verwendung offen. Es ist ein 12-Layer-Modified Roformer-Modell.
Google Drive
Hinweis $ your_model_path Das Modellverzeichnis des heruntergeladenen Modells, dann können Sie die Befehlszeile verwenden, um Folgerung wie folgt durchzuführen:
python train_latent.py --do_predict --model_dir=$your_model_path --n=1 --topp=0.8 --text=any_text
input: up主喜欢小天使
========== predict:
传下去,up主疑似在天堂被天台感动
传下去,up喜欢天穹
传下去,up主家里有天星
传下去,天使喜欢戴眼镜的up主
传下去,up没有天堂
传下去,up叫天台来烤粉丝。
传下去,up每天早上要直播露脸
传下去,up下天生孩子
传下去,up到天台高产了
传下去,up上天堂了
传下去,up和天使吃了
传下去,楼主的那个帅小伙要穿天堂
传下去,up要cos女巫直播
传下去,天堂大up要爽了
传下去,up下天生孩子翻车了
传下去,up不是人
传下去,天天抽一个up吃8个小孩
传下去,三天之后,up主要被魅魔掏心脏了
input: 帝君喜欢吃花生米
========== predict:
传下去,帝君喜欢吃干净的小孩子。
传下去,帝君喜欢捆绑
传下去,帝君用生煎包吃花生米
传下去,帝君吃傻子吃腻了
传下去,喜欢帝君的来自花生米
传下去,花生米吃帝君
传下去,神像吃吃沙子
传下去,我吃帝君屁股
传下去,帝君身边有个米哈游
传下去,帝君只剩干了
传下去,仙跳墙使帝君心疼
传下去,帝君今天上了小通宵
传下去,帝君上床了
传下去,帝君没有下半身
传下去,帝君要炸百京贵妇
传下去,十个视频有了帝君
传下去,帝君会喂食尘神当生日礼物
传下去,视频下一次更新十个帝君
传下去,这个视频里有一年的课代表
input: 川建国要复辟了
========== predict:
传下去,川建国想要
传下去,川宝上任国君了
传下去,川宝变艾伦了
传下去,《不要传传》
传下去,川宝有天火了。
传下去,阿舅变成了川宝
传下去,川宝长大了也不会忘开
传下去,《川宝要制杖》
传下去,总之,川宝喜欢新衣服
传下去,齐格飞要斩四郎
传下去,老八要吃了川宝
传下去,川普不喜欢制杖
传下去,川团老表是孙笑川
传下去,三叔写盗墓笔记
传下去,川宝没有才浅是制杖
传下去,《川宝喜欢才浅制杖》
传下去,我要吃川宝老爷子
传下去,《我才是川宝喜欢的人》
传下去,全世界辣鸡都不用吃川宝!
传下去,有人冒充川宝想被粉丝上
Standardmäßig trainieren wir für 10 Epochen mit batch_size = 128. Es wird aufgefordert, vorbereitete Checkpoint anzuwenden. (z. B. in Zeile 30, Checkpoint_path = "Chinese_ROFORMER-SIM-CHAR-FFT_L-12_H-768_A-12"))
python train_latent.py --model_dir=$your_model_dir --train=data/train.samples
Da es sich um eine völlig datengesteuerte Methode handelt, kann dieses Modell seltsame oder nicht schwierige Sätze für unsichtbare oder außerhalb der Domänen-Eingaben generieren, was ziemlich vernünftig ist.
Übrigens wird ein zusätzlicher interessanter Korpus begrüßt.