Ollama使用遇到的问题
Ollama 和 Open-webui 的连接
Open-webui 使用 docker, ollama 不使用 docker
在Admin Panel的Settings-Ollama API 里 填入 http://host.docker.internal:11434
(注: 不一定成功)
来源 https://github.com/open-webui/open-webui/issues/377#issuecomment-1878085031
gguf
python convert_hf_to_gguf.py /root/autodl-tmp/models/Llama3-8B-Chinese-Chat-merged --outfile /root/autodl-tmp/models/Llama3-8B-Chinese-Chat-GGUF/Llama3-8B-Chinese-Chat-q8_0-v1.gguf --outtype q8_0
./llama-quantize ./新模型路径/新模型名.gguf ./输出路径/4位gguf格式文件名.gguf Q4_K_M 采用4位 如果8位就Q8_K_M