=模型名称 | =模型大小 | =上下文长度 | =输入文本长度 | =本地运行、推理加速 | =微调 | =应用框架 |
Chinese-LLaMA-Alpaca-2 | 1.3B、7B、13B | 4K、16K、64K | ((( |
transformers
llama.cpp
)))| |
Qwen1.5 | ((( |
- 5B、1.8B、4B、
7B、14B、72B
)))| |32768 tokens|(((
transformers>=4.37.0
ollama
llama.cpp
LMStudio
OpenVINO
)))| |
ChatGLM3 | 6B | 8K、32K、128K | ((( |
transformers
chatglm.cpp
ChatGLM3-TPU
TensorRT-LLM
OpenVINO
)))|LLaMA-Factory|(((
LangChain-Chatchat
BISHENG
)))
Yuan 2.0 | 2B、51B、102B | 4K、8K |