Skip to content
微信公众号

Ollama

Ollama 是一个本地部署大模型的开源框架,降低了本地部署和管理大模型的门槛,且提供了丰富的开源大模型库,值得开发者学习和使用。

安装

首先去官网下载 Ollama 安装包进行安装。

运行之后,项目默认监听 11434 端口,在浏览器输入 http://localhost:11434 即可验证

ollama 安装之后,其同时还是一个命令,与模型交互就是通过命令来进行的。

  • ollama list:显示模型列表。
  • ollama show:显示模型的信息
  • ollama pull:拉取模型
  • ollama push:推送模型
  • ollama cp:拷贝一个模型
  • ollama rm:删除一个模型
  • ollama run:运行一个模型

然后通过命令去运行对应的模型

shell
ollama run deepseek-r1:671b
ollama run deepseek-r1:671b

LangChain 与 Deepseek 模型对接

通过 Ollama 在本地部署 DeepSeek-R1 蒸馏模型,通过 langChain 调用下载模型,启动 Ollama 服务

LangChain 集成调用 DeepSeek 大模型,实现 AI 对话功能

python

from langchain_ollama.chat_models import ChatOllama
from langchain_core.prompts import ChatPromptTemplate

llm = ChatOllama(
    base_url="http://127.0.0.1:11434/",
    model="deepseek-r1:7b",
    temperature=0.7,
    max_tokens=2000,
    streaming=True,
    keep_alive="5m",
)

prompt = ChatPromptTemplate.from_messages([("system","你是一个乐于助人的翻译助手,能把 {input_language} 翻译成 {output_language}。翻译用户输入的句子。",),("human", "{input}"),
])
chain = prompt | llm
ai_msg = chain.invoke({
    "input_language": "中文",
    "output_language": "英文",
    "input": "我是姜帅杰,很高兴能够认识你。",})

print("AI的完整回答:", ai_msg)
print("翻译的内容:", ai_msg.content)

from langchain_ollama.chat_models import ChatOllama
from langchain_core.prompts import ChatPromptTemplate

llm = ChatOllama(
    base_url="http://127.0.0.1:11434/",
    model="deepseek-r1:7b",
    temperature=0.7,
    max_tokens=2000,
    streaming=True,
    keep_alive="5m",
)

prompt = ChatPromptTemplate.from_messages([("system","你是一个乐于助人的翻译助手,能把 {input_language} 翻译成 {output_language}。翻译用户输入的句子。",),("human", "{input}"),
])
chain = prompt | llm
ai_msg = chain.invoke({
    "input_language": "中文",
    "output_language": "英文",
    "input": "我是姜帅杰,很高兴能够认识你。",})

print("AI的完整回答:", ai_msg)
print("翻译的内容:", ai_msg.content)

本站总访问量次,本站总访客数人次
Released under the MIT License.