
เอกสาร Torch4keras | ตัวอย่าง build_minillm_from_scratch | Bert4Vector
ติดตั้งเวอร์ชันเสถียร
pip install bert4torchติดตั้งเวอร์ชันล่าสุด
pip install git+https://github.com/Tongjilibo/bert4torchgit clone https://github.com/Tongjilibo/bert4torch แก้ไขเส้นทางไฟล์โมเดลและเส้นทางข้อมูลในตัวอย่างเพื่อเริ่มสคริปต์torch==1.10 เวอร์ชันและตอนนี้เปลี่ยนเป็นการพัฒนา torch2.0 หากเวอร์ชันอื่นพบกับความขัดแย้งโปรดอย่าลังเลที่จะตอบรับ รุ่น LLM : โหลดโอเพ่นซอร์สรุ่นขนาดใหญ่เช่น chatglm, llama, baichuan, ziya, bloom ฯลฯ สำหรับการอนุมานและการปรับแต่งและปรับใช้โมเดลขนาดใหญ่ในบรรทัดเดียวบนบรรทัดคำสั่ง
ฟังก์ชั่นหลัก : การโหลดน้ำหนักการฝึกอบรมล่วงหน้าเช่น Bert, Roberta, Albert, Xlnet, Nezha, Bart, Roformer, Roformer_v2, Electra, GPT, GPT2, T5, Gau-Alpha, Ernie ฯลฯ
ตัวอย่างที่หลากหลาย : รวมถึง LLM, pretrain, sentence_classification, SENTENCE_EMBEDDIN
การตรวจสอบการทดลอง : มีการตรวจสอบการทดลองในชุดข้อมูลสาธารณะโดยใช้ชุดข้อมูลตัวอย่างต่อไปนี้และตัวบ่งชี้การทดลอง
เคล็ดลับที่ใช้งานง่าย : รวมเทคนิคทั่วไปปลั๊กและเล่น
คุณสมบัติอื่น ๆ : โหลดโมเดลไลบรารี Transformers เข้าด้วยกัน วิธีการโทรนั้นง่ายและมีประสิทธิภาพ การแสดงแบบไดนามิกของแถบความคืบหน้าการฝึกอบรม การพิมพ์ระดับพารามิเตอร์ด้วย Torchinfo; เครื่องบันทึกเริ่มต้นและ Tensorboard นั้นง่ายต่อการบันทึกกระบวนการฝึกอบรม กระบวนการพอดีแบบกำหนดเองเพื่อตอบสนองความต้องการระดับสูง
กระบวนการฝึกอบรม :

| การทำงาน | bert4torch | หม้อแปลงไฟฟ้า | คำพูด |
|---|---|---|---|
| แถบความคืบหน้าการฝึกอบรม | แถบความคืบหน้าพิมพ์การสูญเสียและตัวชี้วัดที่กำหนดไว้ | ||
| การฝึกอบรมแบบกระจาย DP/DDP | คบเพลิงมาพร้อมกับ dp/ddp | ||
| การโทรกลับต่างๆ | log/tensorboard/ournedstop/wandb ฯลฯ | ||
| การให้เหตุผลแบบจำลองขนาดใหญ่, เอาต์พุตสตรีม/แบทช์ | แต่ละรุ่นเป็นสากลและไม่จำเป็นต้องมีการบำรุงรักษาสคริปต์แยกต่างหาก | ||
| ปรับแต่งแบบปรับขนาดใหญ่ | Lora ขึ้นอยู่กับห้องสมุด PEFT PV2 มาพร้อมกับตัวเอง | ||
| เทคนิคที่อุดมไปด้วย | กลอุบายและเล่นกับการฝึกอบรมและเทคนิคอื่น ๆ | ||
| รหัสนั้นง่ายและเข้าใจง่ายและพื้นที่ที่กำหนดเองมีขนาดใหญ่ | การใช้รหัสสูงซ้ำรูปแบบการฝึกอบรมรหัส Keras | ||
| ความสามารถในการบำรุงรักษาคลังสินค้า/อิทธิพล/การใช้งาน/ความเข้ากันได้ | ปัจจุบันการบำรุงรักษาคลังสินค้าส่วนบุคคล | ||
| การปรับใช้แบบคลิกเดียวของรุ่นใหญ่ |
# 联网下载全部文件
bert4torch-llm-server --checkpoint_path Qwen2-0.5B-Instruct
# 加载本地大模型,联网下载bert4torch_config.json
bert4torch-llm-server --checkpoint_path /data/pretrain_ckpt/Qwen/Qwen2-0.5B-Instruct --config_path Qwen/Qwen2-0.5B-Instruct
# 加载本地大模型,且bert4torch_config.json已经下载并放于同名目录下
bert4torch-llm-server --checkpoint_path /data/pretrain_ckpt/Qwen/Qwen2-0.5B-Instruct # 命令行
bert4torch-llm-server --checkpoint_path /data/pretrain_ckpt/Qwen/Qwen2-0.5B-Instruct --mode cli
# gradio网页
bert4torch-llm-server --checkpoint_path /data/pretrain_ckpt/Qwen/Qwen2-0.5B-Instruct --mode gradio
# openai_api
bert4torch-llm-server --checkpoint_path /data/pretrain_ckpt/Qwen/Qwen2-0.5B-Instruct --mode openai
| วันที่อัปเดต | bert4torch | Torch4keras | คำอธิบายเวอร์ชัน |
|---|---|---|---|
| 20240928 | 0.5.4 | 0.2.7 | [คุณสมบัติใหม่] เพิ่มซีรีส์ Deepseek, MinicPM, MinICPMV, LLAMA3.2, QWEN2.5; รองรับ Device_map = อัตโนมัติ; [แก้ไข] แก้ไข batch_generate และ n> 1 ข้อบกพร่อง |
| 20240814 | 0.5.3 | 0.2.6 | 【คุณสมบัติใหม่】เพิ่ม llama3.1/yi1.5; เลือกดาวน์โหลดโดยอัตโนมัติจาก hfmirror; สนับสนุนพารามิเตอร์บรรทัดคำสั่ง bert4torch-llm-server |
| 20240801 | 0.5.2 | 0.2.5 | [ฟังก์ชั่นใหม่] Chatglm/Qwen Series รองรับการโทรของฟังก์ชั่นและเพิ่มซีรีส์ InternLM2; [การปรับให้เหมาะสมขนาดเล็ก] ทำให้การเรียกร้องการแชทง่ายขึ้นในไปป์ไลน์การสร้างองค์ประกอบโทเค็นได้รับอนุญาตให้เป็นรายการรวมชื่อพารามิเตอร์ ROPE_SCALING และเพิ่มคลาสที่ได้จากเชือก [บั๊ก] แก้ไขข้อผิดพลาดในการอนุมาน Flash_attn2, แก้ไขข้อผิดพลาดของ BART TIE_WORD_EMBEDDIN |
รุ่นเพิ่มเติม
ประวัติศาสตร์เพิ่มเติม
โมเดลที่ผ่านการฝึกอบรมมาก่อนรองรับวิธีการโหลดรหัสหลายวิธี
from bert4torch . models import build_transformer_model
# 1. 仅指定config_path: 从头初始化模型结构, 不加载预训练模型
model = build_transformer_model ( './model/bert4torch_config.json' )
# 2. 仅指定checkpoint_path:
## 2.1 文件夹路径: 自动寻找路径下的*.bin/*.safetensors权重文件 + 需把bert4torch_config.json下载并放于该目录下
model = build_transformer_model ( checkpoint_path = './model' )
## 2.2 文件路径/列表: 文件路径即权重路径/列表, bert4torch_config.json会从同级目录下寻找
model = build_transformer_model ( checkpoint_path = './pytorch_model.bin' )
## 2.3 model_name: hf上预训练权重名称, 会自动下载hf权重以及bert4torch_config.json文件
model = build_transformer_model ( checkpoint_path = 'bert-base-chinese' )
# 3. 同时指定config_path和checkpoint_path(本地路径名或model_name排列组合):
# 本地路径从本地加载,pretrained_model_name会联网下载
config_path = './model/bert4torch_config.json' # 或'bert-base-chinese'
checkpoint_path = './model/pytorch_model.bin' # 或'bert-base-chinese'
model = build_transformer_model ( config_path , checkpoint_path )ลิงค์น้ำหนักที่ปรับสภาพล่วงหน้าและ bert4torch_config.json
| การจำแนกแบบจำลอง | ชื่อนางแบบ | แหล่งที่มาของน้ำหนัก | Weight Link/Cheampoint_Path | config_path |
|---|---|---|---|---|
| เบิร์ต | เบิร์ตเบส-จีน | Google-Bert | bert-base-chinese | bert-base-chinese |
| Chinese_L-12_H-768_A-12 | น้ำหนัก TFTongjilibo/bert-chinese_L-12_H-768_A-12 | |||
| Chinese-Bert-WWM-EXT | HFL | hfl/chinese-bert-wwm-ext | hfl/chinese-bert-wwm-ext | |
| Bert-base-multilingual-c | Google-Bert | bert-base-multilingual-cased | bert-base-multilingual-cased | |
| แมคเบิร์ต | HFL | hfl/chinese-macbert-basehfl/chinese-macbert-large | hfl/chinese-macbert-basehfl/chinese-macbert-large | |
| Wobert | เทคโนโลยี Zhuyi | junnyu/wobert_chinese_base , junnyu/wobert_chinese_plus_base | junnyu/wobert_chinese_basejunnyu/wobert_chinese_plus_base | |
| โรเบอร์ต้า | Chinese-Roberta-WWM-EXT | HFL | hfl/chinese-roberta-wwm-exthfl/chinese-roberta-wwm-ext-large(น้ำหนัก MLM ของใหญ่เริ่มต้นแบบสุ่ม) | hfl/chinese-roberta-wwm-exthfl/chinese-roberta-wwm-ext-large |
| Roberta-Small/Tiny | เทคโนโลยี Zhuyi | Tongjilibo/chinese_roberta_L-4_H-312_A-12Tongjilibo/chinese_roberta_L-6_H-384_A-12 | ||
| เบสโรเบอร์ต้า | Facebookai | roberta-base | roberta-base | |
| Guwenbert | Ethanyt | ethanyt/guwenbert-base | ethanyt/guwenbert-base | |
| อัลเบิร์ต | Albert_ZH Albert_pytorch | Brightmart | voidful/albert_chinese_tinyvoidful/albert_chinese_smallvoidful/albert_chinese_basevoidful/albert_chinese_largevoidful/albert_chinese_xlargevoidful/albert_chinese_xxlarge | voidful/albert_chinese_tinyvoidful/albert_chinese_smallvoidful/albert_chinese_basevoidful/albert_chinese_largevoidful/albert_chinese_xlargevoidful/albert_chinese_xxlarge |
| เนยแข็ง | เนยแข็ง nezha_chinese_pytorch | huawei_noah | sijunhe/nezha-cn-basesijunhe/nezha-cn-largesijunhe/nezha-base-wwmsijunhe/nezha-large-wwm | sijunhe/nezha-cn-basesijunhe/nezha-cn-largesijunhe/nezha-base-wwmsijunhe/nezha-large-wwm |
| nezha_gpt_dialog | Bojone | Tongjilibo/nezha_gpt_dialog | ||
| xlnet | จีน-xlnet | HFL | hfl/chinese-xlnet-base | hfl/chinese-xlnet-base |
| transformer_xl | กอด | transfo-xl/transfo-xl-wt103 | transfo-xl/transfo-xl-wt103 | |
| เดอเบอร์ตา | Erlangshen-Deberta-V2 | ความคิด | IDEA-CCNL/Erlangshen-DeBERTa-v2-97M-ChineseIDEA-CCNL/Erlangshen-DeBERTa-v2-320M-ChineseIDEA-CCNL/Erlangshen-DeBERTa-v2-710M-Chinese | IDEA-CCNL/Erlangshen-DeBERTa-v2-97M-ChineseIDEA-CCNL/Erlangshen-DeBERTa-v2-320M-ChineseIDEA-CCNL/Erlangshen-DeBERTa-v2-710M-Chinese |
| เครื่องใช้ไฟฟ้า | จีน-อิเล็กตร้า | HFL | hfl/chinese-electra-base-discriminator | hfl/chinese-electra-base-discriminator |
| เออร์นี่ | เออร์นี่ | Baidu Wenxin | nghuyong/ernie-1.0-base-zhnghuyong/ernie-3.0-base-zh | nghuyong/ernie-1.0-base-zhnghuyong/ernie-3.0-base-zh |
| คนเดินเล่น | คนเดินเล่น | เทคโนโลยี Zhuyi | junnyu/roformer_chinese_base | junnyu/roformer_chinese_base |
| roformer_v2 | เทคโนโลยี Zhuyi | junnyu/roformer_v2_chinese_char_base | junnyu/roformer_v2_chinese_char_base | |
| ซิมเบิร์ต | ซิมเบิร์ต | เทคโนโลยี Zhuyi | Tongjilibo/simbert-chinese-baseTongjilibo/simbert-chinese-smallTongjilibo/simbert-chinese-tiny | |
| Simbert_v2/roformer-sim | เทคโนโลยี Zhuyi | junnyu/roformer_chinese_sim_char_base , junnyu/roformer_chinese_sim_char_ft_base , junnyu/roformer_chinese_sim_char_small , junnyu/roformer_chinese_sim_char_ft_small | junnyu/roformer_chinese_sim_char_basejunnyu/roformer_chinese_sim_char_ft_basejunnyu/roformer_chinese_sim_char_smalljunnyu/roformer_chinese_sim_char_ft_small | |
| Gau | Gau-alpha | เทคโนโลยี Zhuyi | Tongjilibo/chinese_GAU-alpha-char_L-24_H-768 | |
| UIE | UIE uie_pytorch | Baidu | Tongjilibo/uie-base | |
| GPT | cdial-gpt | Thu-coai | thu-coai/CDial-GPT_LCCC-basethu-coai/CDial-GPT_LCCC-large | thu-coai/CDial-GPT_LCCC-basethu-coai/CDial-GPT_LCCC-large |
| CMP_LM (2.6 พันล้าน) | Tsinghua | TsinghuaAI/CPM-Generate | TsinghuaAI/CPM-Generate | |
| nezha_gen | huawei_noah | Tongjilibo/chinese_nezha_gpt_L-12_H-768_A-12 | ||
| GPT2-Chinese-Cluecorpussmall | uer | uer/gpt2-chinese-cluecorpussmall | uer/gpt2-chinese-cluecorpussmall | |
| GPT2-ML | Imcaspar | torrh Baiduyun (84DH) | gpt2-ml_15g_corpusgpt2-ml_30g_corpus | |
| บาร์ต | bart_base_chinese | fudan fnlp | fnlp/bart-base-chinesev1.0 | fnlp/bart-base-chinesefnlp/bart-base-chinese-v1.0 |
| T5 | T5 | uer | uer/t5-small-chinese-cluecorpussmalluer/t5-base-chinese-cluecorpussmall | uer/t5-base-chinese-cluecorpussmalluer/t5-small-chinese-cluecorpussmall |
| MT5 | google/mt5-base | google/mt5-base | ||
| t5_pegasus | เทคโนโลยี Zhuyi | Tongjilibo/chinese_t5_pegasus_smallTongjilibo/chinese_t5_pegasus_base | ||
| Chatyuan | เบาะแส | ClueAI/ChatYuan-large-v1ClueAI/ChatYuan-large-v2 | ClueAI/ChatYuan-large-v1ClueAI/ChatYuan-large-v2 | |
| คำแนะนำ | เบาะแส | ClueAI/PromptCLUE-base | ClueAI/PromptCLUE-base | |
| chatglm | chatglm-6b | เสียงดัง | THUDM/chatglm-6bTHUDM/chatglm-6b-int8THUDM/chatglm-6b-int4v0.1.0 | THUDM/chatglm-6bTHUDM/chatglm-6b-int8THUDM/chatglm-6b-int4THUDM/chatglm-6b-v0.1.0 |
| chatglm2-6b | เสียงดัง | THUDM/chatglm2-6bTHUDM/chatglm2-6b-int4THUDM/chatglm2-6b-32k | THUDM/chatglm2-6bTHUDM/chatglm2-6b-int4THUDM/chatglm2-6b-32k | |
| chatglm3-6b | เสียงดัง | THUDM/chatglm3-6bTHUDM/chatglm3-6b-32k | THUDM/chatglm3-6bTHUDM/chatglm3-6b-32k | |
| GLM4-9B | เสียงดัง | THUDM/glm-4-9bTHUDM/glm-4-9b-chatTHUDM/glm-4-9b-chat-1m | THUDM/glm-4-9bTHUDM/glm-4-9b-chatTHUDM/glm-4-9b-chat-1m | |
| ลาม่า | ลาม่า | เมตา | meta-llama/llama-7bmeta-llama/llama-13b | |
| Llama-2 | เมตา | meta-llama/llama-2-7b-hf meta-llama/llama-2-7b-chat-hf meta-llama/llama-2-13b-hf meta-llama/llama-2-13b-chat-hf | meta-llama/Llama-2-7b-hfmeta-llama/Llama-2-7b-chat-hfmeta-llama/Llama-2-13b-hfmeta-llama/Llama-2-13b-chat-hf | |
| Llama-3 | เมตา | meta-llama/Meta-Llama-3-8Bmeta-llama/Meta-Llama-3-8B-Instruct | meta-llama/Meta-Llama-3-8Bmeta-llama/Meta-Llama-3-8B-Instruct | |
| Llama-3.1 | เมตา | meta-llama/Meta-Llama-3.1-8Bmeta-llama/Meta-Llama-3.1-8B-Instruct | meta-llama/Meta-Llama-3.1-8Bmeta-llama/Meta-Llama-3.1-8B-Instruct | |
| Llama-3.2 | เมตา | meta-llama/Llama-3.2-1Bmeta-llama/Llama-3.2-1B-Instructmeta-llama/Llama-3.2-3Bmeta-llama/Llama-3.2-3B-Instruct | meta-llama/Llama-3.2-1Bmeta-llama/Llama-3.2-1B-Instructmeta-llama/Llama-3.2-3Bmeta-llama/Llama-3.2-3B-Instruct | |
| จีน-แอลปากา | HFL | hfl/chinese_alpaca_plus_7bhfl/chinese_llama_plus_7b | ||
| Chinese-Llama-Alpaca-2 | HFL | ที่จะเพิ่ม | ||
| Chinese-Llama-Alpaca-3 | HFL | ที่จะเพิ่ม | ||
| belle_llama | คนโสเภณี | Bellegroup/Belle-llama-7b-2m-enc | คำแนะนำการสังเคราะห์ BelleGroup/BELLE-LLaMA-7B-2M-enc | |
| Ziya | Idea-ccnl | Idea-CCNL/Ziya-llama-13b-v1 IDEA-CCNL/ZIYA-LLAMA-13B-V1.1 IDEA-CCNL/ZIYA-LLAMA-13B-PRETRAIN-V1 | IDEA-CCNL/Ziya-LLaMA-13B-v1IDEA-CCNL/Ziya-LLaMA-13B-v1.1 | |
| ตัวแทน | LMSYS | lmsys/vicuna-7b-v1.5 | lmsys/vicuna-7b-v1.5 | |
| ชาวไชน่า | ชาวไชน่า | Baichuan-Inc | baichuan-inc/Baichuan-7Bbaichuan-inc/Baichuan-13B-Basebaichuan-inc/Baichuan-13B-Chat | baichuan-inc/Baichuan-7Bbaichuan-inc/Baichuan-13B-Basebaichuan-inc/Baichuan-13B-Chat |
| Baichuan2 | Baichuan-Inc | baichuan-inc/Baichuan2-7B-Basebaichuan-inc/Baichuan2-7B-Chatbaichuan-inc/Baichuan2-13B-Basebaichuan-inc/Baichuan2-13B-Chat | baichuan-inc/Baichuan2-7B-Basebaichuan-inc/Baichuan2-7B-Chatbaichuan-inc/Baichuan2-13B-Basebaichuan-inc/Baichuan2-13B-Chat | |
| ยี่ | ยี่ | 01-AI | 01-ai/Yi-6B01-ai/Yi-6B-200K01-ai/Yi-9B01-ai/Yi-9B-200K | 01-ai/Yi-6B01-ai/Yi-6B-200K01-ai/Yi-9B01-ai/Yi-9B-200K |
| Yi-1.5 | 01-AI | 01-ai/Yi-1.5-6B01-ai/Yi-1.5-6B-Chat01-ai/Yi-1.5-9B01-ai/Yi-1.5-9B-32K01-ai/Yi-1.5-9B-Chat01-ai/Yi-1.5-9B-Chat-16K | 01-ai/Yi-1.5-6B01-ai/Yi-1.5-6B-Chat01-ai/Yi-1.5-9B01-ai/Yi-1.5-9B-32K01-ai/Yi-1.5-9B-Chat01-ai/Yi-1.5-9B-Chat-16K | |
| ผลิบาน | ผลิบาน | ความสำคัญ | bigscience/bloom-560mbigscience/bloomz-560m | bigscience/bloom-560mbigscience/bloomz-560m |
| Qwen | Qwen | Alibaba Cloud | Qwen/Qwen-1_8BQwen/Qwen-1_8B-ChatQwen/Qwen-7BQwen/Qwen-7B-ChatQwen/Qwen-14BQwen/Qwen-14B-Chat | Qwen/Qwen-1_8BQwen/Qwen-1_8B-ChatQwen/Qwen-7BQwen/Qwen-7B-ChatQwen/Qwen-14BQwen/Qwen-14B-Chat |
| Qwen1.5 | Alibaba Cloud | Qwen/Qwen1.5-0.5BQwen/Qwen1.5-0.5B-ChatQwen/Qwen1.5-1.8BQwen/Qwen1.5-1.8B-ChatQwen/Qwen1.5-7BQwen/Qwen1.5-7B-ChatQwen/Qwen1.5-14BQwen/Qwen1.5-14B-Chat | Qwen/Qwen1.5-0.5BQwen/Qwen1.5-0.5B-ChatQwen/Qwen1.5-1.8BQwen/Qwen1.5-1.8B-ChatQwen/Qwen1.5-7BQwen/Qwen1.5-7B-ChatQwen/Qwen1.5-14BQwen/Qwen1.5-14B-Chat | |
| Qwen2 | Alibaba Cloud | Qwen/Qwen2-0.5BQwen/Qwen2-0.5B-InstructQwen/Qwen2-1.5BQwen/Qwen2-1.5B-InstructQwen/Qwen2-7BQwen/Qwen2-7B-Instruct | Qwen/Qwen2-0.5BQwen/Qwen2-0.5B-InstructQwen/Qwen2-1.5BQwen/Qwen2-1.5B-InstructQwen/Qwen2-7BQwen/Qwen2-7B-Instruct | |
| QWEN2-VL | Alibaba Cloud | Qwen/Qwen2-VL-2B-InstructQwen/Qwen2-VL-7B-Instruct | Qwen/Qwen2-VL-2B-InstructQwen/Qwen2-VL-7B-Instruct | |
| Qwen2.5 | Alibaba Cloud | Qwen/Qwen2.5-0.5BQwen/Qwen2.5-0.5B-InstructQwen/Qwen2.5-1.5BQwen/Qwen2.5-1.5B-InstructQwen/Qwen2.5-3BQwen/Qwen2.5-3B-InstructQwen/Qwen2.5-7BQwen/Qwen2.5-7B-InstructQwen/Qwen2.5-14BQwen/Qwen2.5-14B-Instruct | Qwen/Qwen2.5-0.5BQwen/Qwen2.5-0.5B-InstructQwen/Qwen2.5-1.5BQwen/Qwen2.5-1.5B-InstructQwen/Qwen2.5-3BQwen/Qwen2.5-3B-InstructQwen/Qwen2.5-7BQwen/Qwen2.5-7B-InstructQwen/Qwen2.5-14BQwen/Qwen2.5-14B-Instruct | |
| ผู้ฝึกงาน | ผู้ฝึกงาน | ห้องปฏิบัติการปัญญาประดิษฐ์เซี่ยงไฮ้ | internlm/internlm-7binternlm/internlm-chat-7b | internlm/internlm-7binternlm/internlm-chat-7b |
| internlm2 | ห้องปฏิบัติการปัญญาประดิษฐ์เซี่ยงไฮ้ | internlm/internlm2-1_8binternlm/internlm2-chat-1_8binternlm/internlm2-7binternlm/internlm2-chat-7binternlm/internlm2-20binternlm/internlm2-chat-20b | internlm/internlm2-1_8binternlm/internlm2-chat-1_8binternlm/internlm2-7binternlm/internlm2-chat-7b | |
| internlm2.5 | ห้องปฏิบัติการปัญญาประดิษฐ์เซี่ยงไฮ้ | internlm/internlm2_5-7binternlm/internlm2_5-7b-chatinternlm/internlm2_5-7b-chat-1m | internlm/internlm2_5-7binternlm/internlm2_5-7b-chatinternlm/internlm2_5-7b-chat-1m | |
| เหยี่ยว | เหยี่ยว | tiiuae | tiiuae/falcon-rw-1btiiuae/falcon-7btiiuae/falcon-7b-instruct | tiiuae/falcon-rw-1btiiuae/falcon-7btiiuae/falcon-7b-instruct |
| ลึกล้ำ | Deepseek-Moe | การค้นหาในเชิงลึก | deepseek-ai/deepseek-moe-16b-basedeepseek-ai/deepseek-moe-16b-chat | deepseek-ai/deepseek-moe-16b-basedeepseek-ai/deepseek-moe-16b-chat |
| deepseek-llm | การค้นหาในเชิงลึก | deepseek-ai/deepseek-llm-7b-basedeepseek-ai/deepseek-llm-7b-chat | deepseek-ai/deepseek-llm-7b-basedeepseek-ai/deepseek-llm-7b-chat | |
| deepseek-v2 | การค้นหาในเชิงลึก | deepseek-ai/DeepSeek-V2-Litedeepseek-ai/DeepSeek-V2-Lite-Chat | deepseek-ai/DeepSeek-V2-Litedeepseek-ai/DeepSeek-V2-Lite-Chat | |
| เขื่อนลึก | การค้นหาในเชิงลึก | deepseek-ai/deepseek-coder-1.3b-basedeepseek-ai/deepseek-coder-1.3b-instructdeepseek-ai/deepseek-coder-6.7b-basedeepseek-ai/deepseek-coder-6.7b-instructdeepseek-ai/deepseek-coder-7b-base-v1.5deepseek-ai/deepseek-coder-7b-instruct-v1.5 | deepseek-ai/deepseek-coder-1.3b-basedeepseek-ai/deepseek-coder-1.3b-instructdeepseek-ai/deepseek-coder-6.7b-basedeepseek-ai/deepseek-coder-6.7b-instructdeepseek-ai/deepseek-coder-7b-base-v1.5deepseek-ai/deepseek-coder-7b-instruct-v1.5 | |
| DEEPSEEEK-CODER-V2 | การค้นหาในเชิงลึก | deepseek-ai/DeepSeek-Coder-V2-Lite-Basedeepseek-ai/DeepSeek-Coder-V2-Lite-Instruct | deepseek-ai/DeepSeek-Coder-V2-Lite-Basedeepseek-ai/DeepSeek-Coder-V2-Lite-Instruct | |
| ลึกลงไป | การค้นหาในเชิงลึก | deepseek-ai/deepseek-math-7b-basedeepseek-ai/deepseek-math-7b-instructdeepseek-ai/deepseek-math-7b-rl | deepseek-ai/deepseek-math-7b-basedeepseek-ai/deepseek-math-7b-instructdeepseek-ai/deepseek-math-7b-rl | |
| MINICPM | MINICPM | OpenBMB | openbmb/MiniCPM-2B-sft-bf16openbmb/MiniCPM-2B-dpo-bf16openbmb/MiniCPM-2B-128kopenbmb/MiniCPM-1B-sft-bf16 | openbmb/MiniCPM-2B-sft-bf16openbmb/MiniCPM-2B-dpo-bf16openbmb/MiniCPM-2B-128kopenbmb/MiniCPM-1B-sft-bf16 |
| MINICPM-V | OpenBMB | openbmb/MiniCPM-V-2_6openbmb/MiniCPM-Llama3-V-2_5 | openbmb/MiniCPM-V-2_6openbmb/MiniCPM-Llama3-V-2_5 | |
| การฝัง | Text2Vec-base-chinese | Shibing624 | shibing624/text2vec-base-chinese | shibing624/text2vec-base-chinese |
| M3E | Moka-AI | moka-ai/m3e-base | moka-ai/m3e-base | |
| BGE | ชาว Baai | BAAI/bge-large-en-v1.5BAAI/bge-large-zh-v1.5BAAI/bge-base-en-v1.5BAAI/bge-base-zh-v1.5BAAI/bge-small-en-v1.5BAAI/bge-small-zh-v1.5 | BAAI/bge-large-en-v1.5BAAI/bge-large-zh-v1.5BAAI/bge-base-en-v1.5BAAI/bge-base-zh-v1.5BAAI/bge-small-en-v1.5BAAI/bge-small-zh-v1.5 | |
| GTE | จากนั้น | thenlper/gte-large-zhthenlper/gte-base-zh | thenlper/gte-base-zhthenlper/gte-large-zh |
*บันทึก:
高亮格式(เช่น bert-base-chinese ) สามารถสร้างโดยตรง build_transformer_model() เพื่อดาวน์โหลดออนไลน์HF_ENDPOINT=https://hf-mirror.com python your_script.pyexport HF_ENDPOINT=https://hf-mirror.com ก่อนเรียกใช้รหัส Python import os
os . environ [ 'HF_ENDPOINT' ] = "https://hf-mirror.com" @misc{bert4torch,
title={bert4torch},
author={Bo Li},
year={2022},
howpublished={url{https://github.com/Tongjilibo/bert4torch}},
}
![]() WeChat ID | ![]() กลุ่ม WeChat | แผนภูมิประวัติศาสตร์ดาว |