ollama run Model on Hugging Face Hub

之前写了篇比较全的ollama使用文档:
https://www.icnma.com/ollama-tutorial/

本篇主要是如何使用ollama直接运行huggingface上的gguf模型。

file

直接使用Ollama在Hugging Face上任何GGUF quant model,而无需创建新的Modelfile。

https://huggingface.co/settings/local-apps 启用ollama

file

在模型页面上,从使用此模型中选择ollama。
file
file

ollama run hf.co/{username}/{repository}

# 例如
ollama run hf.co/bartowski/Llama-3.2-1B-Instruct-GGUF

# 加量化tag
ollama run hf.co/{username}/{repository}:{quantization}
# 例如
ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:Q8_0

默认情况下,将从常用模板列表中自动选择模板。将根据GGUF文件中存储的内置tokenizer.chat_template元数据进行选择。如果想自定义聊天模板,可以在存储库中创建一个名为template的新文件,必须是Go模板,而不是Jinja模板。
例如:

{{ if .System }}<|system|>
{{ .System }}<|end|>
{{ end }}{{ if .Prompt }}<|user|>
{{ .Prompt }}<|end|>
{{ end }}<|assistant|>
{{ .Response }}<|end|>

模板格式:
https://github.com/ollama/ollama/blob/main/docs/template.md
要更改采样参数,请在存储库中创建一个名为params的文件。文件必须是JSON格式.
参考:
https://github.com/ollama/ollama/blob/main/docs/modelfile.md#parameter

原创文章。转载请注明: 作者:meixi 网址: https://www.icnma.com
Like (0)
meixi管理
Previous 20/10/2024 21:08
Next 08/01/2025 14:56

猜你想看

  • 用 LLM 将非结构化文本转为知识图谱

    核心内容:1. 构建知识图谱的挑战与LLM的解决方案2. 环境配置与关键Python库的安装使用3. 知识图谱的基本概念及其在项目中的应用实例 从非结构化文本中构建知识图谱是一项具有挑战性的任务。它通常需要识别关键术语…

    21/05/2025
    08480
  • Attention Please! MLA、MHA、MQA与GQA原理与代码实现

    多头注意力机制(Multi-Head Attention,MHA) 多头注意力(Multi-Head Attention, MHA)是Transformer模型的核心机制,通过并行计算多个注意力头,使模型能够同时关注输入序列中不同位置的特征。其核心思想是将输…

    20/05/2025
    01.6K0
  • Attention:MLA、MHA、MQA与GQA

    多头注意力机制(Multi-Head Attention,MHA) 多头注意力(Multi-Head Attention, MHA)是Transformer模型的核心机制,通过并行计算多个注意力头,使模型能够同时关注输入序列中不同位置的特征。其核心思想是将输…

    17/06/2025
    06320
  • 11步骤,使用大语言模型构建知识图谱

    大数据本身蕴藏着丰富价值,但从中挖掘洞见需要耗费大量人力。而知识图谱能够简化这一过程,通过将零散信息整合成结构化、可搜索的形式,能显著提高效率。一项研究表明,使用知识图谱可将数据探索时间最高缩短 70%…

    21/05/2025
    01.0K0
  • 【DeepSpeed】3D 并行原理解读

    DeepSpeed 的 3D 并行 是一种高级分布式训练策略,通过结合 数据并行 (Data Parallelism, DP)、模型并行 (Model Parallelism, MP) 和 流水线并行 (Pipeline Parallelism, PP),在多 GPU 和多节点环境中高效训练超大…

    人工智能 21/05/2025
    01.0K0