news emotion
1.0.0
python 3.x sudo git clone https://github.com/AsuraDong/news-emotion.git news_emotion
mv -R ./news_emotion/ 你的程序路径/ clean_data / # 清洗数据
__init__ . py
clean_html . py # 清洗网页标签
langconv . py # 简体和繁体转化
zh_wiki . py # 简体和繁体转化
data / # 存放训练集和词典
emdict / # 存放词典
material /
emotion_word . py # 知网情感词典
stopword . txt # 中文停用词典
NTUSD_simplified / # 台湾大学NTUSD情感词典
...
collect_dict . py # 生成之后程序需要的plk和用户词典
trainset / # 存放训练集
...
model / # 我们训练好的model模型
wordfreq_logistic . ml
other / # 根据具体情况自行添加
...
result / #结果展示
log /
best_model / # 针对最好的模型的详细信息
PR . json
error_tag . json
ml_rate . plk
logfile . plk
3 plus3arr . plk
show / # 组合模型的全部结果
result . csv
result . xlsx
vector / # 文本翻译后的词向量
result . csv
result . xlsx
__init__ . py
loocv_model . py # 对组合模型进行留一验证,并且将结果写入csv和excel文件
ml_model . py # 集成sklearn常用的自然语言的机器学习模型
operate_data . py # 将文本处理成词向量,并且保存了logfile.plk
README . md
demo . py # 使用者(非开发者)调用框架的样例
run_best . py # 人工找出loocv_model.py的最好结果后,进行最好模型的更详细分析 โปรดดูรหัส demo.py
เปิด demo.py
ถ้า:
if __name__=='__main__': od . loadStopwords ()
od . loadEmotionwords ()
od . loadWords ( od . stopList )
od . loadDocument ( od . stopList )
##### 单例模式 #####
predictor = Predictor ()
predictor . load_model ()
predictor . set_mode ( mode = "wordfreq" ) # 以上代码是初始化配置,只需要调用一次
##### 下面的代码可以循环调用 #####
news = " 《经济通通讯社13日专讯》日股早市偏软,日经225指数报18312跌239点。 美元兑日圆疲软,新报108﹒78╱80。(tt)" # 这是您的新闻样本
predictor . set_news ( news = news )
predictor . trans_vec ()
tag = predictor () # 分类结果1.1 ให้ป้อน if __name__=='__main__': best_vector = "wordfreq"
best_model = 1 # linearLogistic
save_model ( best_vector , best_model )
##### 单例模式 #####
predictor = Predictor ()
predictor . load_model ()
predictor . set_mode ( mode = "wordfreq" ) # 以上代码是初始化配置,只需要调用一次
##### 下面的代码可以循环调用 #####
news = " 《经济通通讯社13日专讯》日股早市偏软,日经225指数报18312跌239点。 美元兑日圆疲软,新报108﹒78╱80。(tt)" # 这是您的新闻样本
predictor . set_news ( news = news )
predictor . trans_vec ()
tag = predictor ()หลังจากประสบความสำเร็จฉันเชื่อว่าคุณเข้าใจการใช้งานกรอบให้มากที่สุด โปรดใช้ให้มากที่สุด
เว็บไซต์ส่วนตัว : yuanxin.me
อีเมล: [email protected]