2024-06-01 AI 把HuggingFace的模型转换成GGUF格式,并导入ollama | AI快速入门 2024 为了在ollama运行环境中执行HuggingFace的模型,需要转换成GGUF格式,并配置定义文件导入ollama。 123456789101112131415161718192021222324252627282930313233343536# 下载HuggingFace模型(例:Qwen2-7B)git lfs installgit clone https://huggingface.co/Qwen/Qwen2-7B# 在Qwen2-7B的同一父级目录下,下载转换模型用的Llama.cpp,安装必要的python包git clone https://github.com/ggerganov/llama.cpp.gitcd llama.cppmakecd ..pip install -r llama.cpp/requirements.txt# 转换Qwen2-7B至未量化的版本,便于后续尝试不同的量化模式比较效果python llama.cpp/convert.py Qwen2-7B/ --outfile Qwen2-7B.gguf# 对生成的GGUF模型按照指定精度量化(例:Q4_K_M),以便在较低的GPU环境运行./llama.cpp/quantize Qwen2-7B.gguf Qwen2-7B-Q4_K_M.gguf Q4_K_M# 如果项直接转换成f32,f16,q8_0的精度,上述两步操作也可以合并成一步(例:q8_0)python llama.cpp/convert.py Qwen2-7B/ --outfile Qwen2-7B-q8_0.gguf --outtype q8_0# 编辑ollama用的模型定义文件touch Qwen2-7B/Qwen2-7B-Q4_K_M.Modelfilevi Qwen2-7B/Qwen2-7B-Q4_K_M.Modelfile# 文件内容FROM ./Qwen2-7B-Q4_K_M.gguf//todo 怎么写templateTEMPLATE """[INST] {{ .System }} {{ .Prompt }} [/INST]"""PARAMETER stop "[INST]"PARAMETER stop "[/INST]"# 导入ollama,正确后会输出模型一览ollama create Qwen2-7B-Q4_K_M -f Qwen2-7B-Q4_K_M.Modelfileollama list 前一篇 AI解决方案汇总(整理中) | AI快速入门 2024 后一篇 两种方法获取macOS Finder的路径