Skip to content

Ollama 下载本地模型

太长不看:

目前本地模型能力仍不够强,当玩具玩。

排名选择

模型排名,可以参考大模型竞技场-人类评估榜单

厂商的排名只能做参考。打个比方,有高三学生,宣称他去考去年的高考题,能考“状元”。跟真实的“状元”比,有多大差距呢?

还有一系列小手段,比如对比GPT4,不对比最新的GPT4o,拿最初的GPT4来对比;比不过的模型就不对比了……

按显存选择

部分模型可以去这里查一个估计值 https://huggingface.co/spaces/hf-accelerate/model-memory-usage ,主要看 Total Size

Qwen/Qwen2-7B-Instruct

dtypeLargest Layer or Residual GroupTotal SizeTraining using Adam (Peak vRAM)
float322.03 GB27.22 GB108.86 GB
int8519.75 MB6.8 GBN/A
float16/bfloat161.02 GB13.61 GB54.43 GB
int4259.88 MB3.4 GBN/A

Qwen/Qwen2-1.5B

dtypeLargest Layer or Residual GroupTotal SizeTraining using Adam (Peak vRAM)
float32890.25 MB9.25 GB37.0 GB
int8222.56 MB2.31 GBN/A
float16/bfloat16445.12 MB4.63 GB18.5 GB
int4111.28 MB1.16 GBN/A

其他参数选择

对话一般选带 Instruct 或者 Chat 的

参考