jieba rs
v0.7.0
ساعدني في أن أصبح مطورًا مفتوحًا بدوام كامل من خلال رعايتي على Github
تم تنفيذ تجزئة الكلمات الصينية Jieba في الصدأ
أضفه إلى Cargo.toml :
[ dependencies ]
jieba-rs = " 0.7 " إذن أنت على ما يرام. إذا كنت تستخدم Rust 2015 ، فعليك أن extern crate jieba_rs إلى جذر قفصك أيضًا.
use jieba_rs :: Jieba ;
fn main ( ) {
let jieba = Jieba :: new ( ) ;
let words = jieba . cut ( "我们中出了一个叛徒" , false ) ;
assert_eq ! ( words , vec! [ "我们" , "中" , "出" , "了" , "一个" , "叛徒" ] ) ;
} default-dict القاموس المدمج ، ويتم تمكين هذه الميزات افتراضيًاtfidf استخراج الكلمات الرئيسية TF-IDFtextrank تتيح استخراج الكلمات الرئيسية Textrank [ dependencies ]
jieba-rs = { version = " 0.7 " , features = [ " tfidf " , " textrank " ] }cargo bench --all-featuresjieba-rs@node-rs/jieba nodejs bindingjieba-php php ملزمةrjieba-py python ملزمةcang-jie tokenizer الصينية ل tantivytantivy-jieba محول يجسد بين Tantivy و Jieba-RSjieba-wasm ملزمة webassembly يتم إصدار هذا العمل بموجب ترخيص معهد ماساتشوستس للتكنولوجيا. يتم توفير نسخة من الترخيص في ملف الترخيص.