本地AI Agent Hello World(Python版): Ollama + LangChain 快速上手指南
itomcoil 2025-05-14 14:08 1 浏览
概要
本文将用最简洁的 Python 示例(后续还会推出 Java 版本),带你逐步完成本地大模型 Agent 的“Hello World”:
1、介绍核心工具组件:Ollama、LangChain 和 LangServe;
2、进行环境安装;
3、通过一段完整的 Python 代码示例,实现本地启动、调用大模型,并构建你的第一个本地 AI Agent 智能体。
在动手之前,不妨先了解一下本地构建 AI Agent 的四大优势:
数据本地留存:全程无需外发,杜绝传输泄露风险;
合规与隐私:满足 GDPR、HIPAA 等严格法规对数据本地化的要求;
独立可控:摆脱在线服务的策略调整与网络波动影响;
机密保护:关键研发与商业数据绝不外泄,最大程度保全知识产权。
接下来,我们将直接进入核心组件的介绍与实操讲解,让你在最短时间内完成本地 AI Agent 的“Hello World”的搭建。
Ollama
客户端 (Client) 与服务端 (Server) 分离
Ollama 采用经典的前后端分离架构:客户端(CLI 或 SDK)负责向用户暴露命令与接口,服务端(用 Go 实现的 ollama-http-server)则提供 REST API,二者通过本机 HTTP 通信完成指令下发与结果回传 。
Modelfile:模型与配置的一体化
1、Modelfile 将模型权重、tokenizer、系统提示(system prompt)及运行参数打包在同一个目录或文件中,类似于 Docker 镜像的概念,一次 ollama pull <model> 即可获取全部所需资源。
2、通过 ollama show <model> 可以快速查看 Modelfile 的元数据信息,如模型大小、license、支持的硬件加速等 。
推理引擎与硬件加速
1、Ollama 内部集成了高效的推理后端(如 llama.cpp),支持 CPU 多线程与 GPU CUDA 加速,能够在无 GPU 的设备(例如 Raspberry Pi)上也执行基本推理 。
2、用户可在 Modelfile 中指定 device: gpu 或通过环境变量控制并发线程数,以达到性能与资源利用的最佳平衡 。
LangChain
核心接口与模块划分
LangChain 将 LLM 应用拆分为若干可组合的接口与模块,包括:
1、Models:封装各种 LLM 提供者(本地 Ollama、OpenAI、Anthropic 等)的统一调用接口。
2、Prompts:定义 Prompt 模板与变量注入规则,简化大规模 Prompt 管理。
3、Chains:可串联的执行单元,将多个调用(如检索→生成→解析)组成流水线。
4、Tools:第三方 API、脚本或自定义函数的抽象化,可由 Agent 动态调度。
5、Agents:具备“感知—决策—执行”循环的智能体,自动选择适当 Tools 处理复杂任务。
多样化存储与记忆(Memory & Indexes)
1、Memory:提供对话历史、检索结果等上下文的持久化方案,支持短期(会话级)和长期(文件级)记忆管理 。
2、Indexes/Vector Stores:结合向量检索框架(如 FAISS、Weaviate)实现 RAG(Retrieval-Augmented Generation),将外部文档作为 Prompt 源增强回答准确性 。
LangServe(LangChain-Serve)
快速部署为 REST API
LangServe(即 langchain-serve)基于 FastAPI,使用简单的装饰器(@serve.serving)即可将任意 Chain、Agent 或 Runnable 暴露为 HTTP 接口,并自动生成 OpenAPI 文档。
丰富的服务特性
1、流式输出 (Streaming):支持将模型生成的 Token 实时推送给客户端,适合对话与写作助手场景。
2、批量处理 (Batching):一次性接受多条请求,合并推理以提升吞吐量,降低网络与计算开销。
3、多并发支持:基于 Uvicorn/Gunicorn 实现多进程、异步 I/O,轻松应对高并发访问 。
与 Ollama & LangChain 无缝集成
1、在 LangServe 中,只需将 ollama.llm("模型名") 得到的 LLMChain 作为 Runnable 注入,即可直接通过 HTTP 端点调用本地 Ollama 服务。
2、完全兼容 LangChain 的所有工具与 Memory,使得原型与生产环境部署之间零改动。
环境安装
硬件与系统要求
1、操作系统:macOS、Linux(Ubuntu/Debian)或 Windows Subsystem for Linux(WSL)均可。
2、硬件:建议至少 8 GB 内存,若要较流畅地运行 7B 以上级别模型,需配备 NVIDIA/AMD GPU(安装对应驱动)或 Apple Silicon 芯片。
安装 Ollama
命令行安装
1、Linux / macOS:curl -fsSL
https://ollama.com/install.sh | sh
2、macOS:也可通过 brew install ollama 安装
3、Windows (PowerShell):iwr
https://ollama.com/install.ps1 -useb | iex
官网下载安装
官网地址:
https://ollama.com/download
根据系统自行选择下载安装即可。
安装成功检验
在终端里面输入:ollama serve
在浏览器例如输入:http://127.0.0.1:11434,出现“Ollama is running”说明安装成功。
安装本地大模型
在 https://ollama.com/search 里面找到自己需要的大模型,我本地安装了 qwen3:1.7b 和 deepseek-r1:8b。使用命令 ollama pull qwen3:1.7b 安装;
安装完后,可以通过 ollama list 查看本地安装的大模型。
Python及依赖安装
示例代码通过miniconda来做Python环境隔离,poetry来做依赖管理。miniconda安装参考:
https://docs.anaconda.net.cn/miniconda/install/。
下载对应代码示例:
https://github.com/joyang1/AI_Agent_Py_Demos,切换到示例代码根目录,按下述不走运行:
1、创建conda隔离环境:conda create -n py12 python=3.12
2、激活conda环境:conda activate py12
3、在conda环境里面安装poetry:pip install poetry
4、安装依赖:poetry install
代码运行
CLI代码运行
from langchain_ollama.llms import OllamaLLM
class CustomChatAgentCLi(object):
@property
def _llm_type(self) -> str:
# 返回我们自定义的模型标记
return "qwen3-1.7b"
def __init__(self):
self.llm = OllamaLLM(base_url="http://127.0.0.1:11434", model="deepseek-r1:8b")
def llama_completion(self, user_input) -> str:
# 调用llama的接口,返回响应
# return "Hello from llama!"
try:
response = self.llm.invoke(user_input)
return response
except Exception as e:
print(f"error:{e}")
return "error"
llm = CustomChatAgentCLi()
print(llm.llama_completion("你是谁?"))
结合LangServe通过UI运行
然后在浏览器输入:
http://localhost:8000/writer/playground/
出现如下页面说明启动UI启动成功。
我本地的AI Agent是一个专注于前沿技术(大模型)知识分享的博主。你可以输入任意的主题,让它帮你写一篇 markdown 格式的博文。
下面你可以输入对应的主题进行,比如我输入:大模型从0到1入门。输出如下:
相关推荐
- tesseract-ocr 实现图片识别功能
-
最近因为项目需要,接触了一下关于图像识别的相关内容,例如Tesseract。具体如何安装、设置在此不再赘述。根据项目要求,我们需要从省平台获取实时雨水情况数据,原以为获取这样的公开数据比较简单,上去一...
- 跨平台Windows和Linux(银河麒麟)操作系统OCR识别应用
-
1运行效果在银河麒麟桌面操作系统V10(SP1)上运行OCR识别效果如下图:2在Linux上安装TesseractOCR引擎2.1下载tesseract-ocr和leptonicahttps:...
- JAVA程序员自救之路——SpringAI文档解析tika
-
ApacheTika起源于2007年3月,最初是ApacheLucene项目的子项目,于2010年5月成为Apache组织的顶级项目。它利用现有的解析类库,能够侦测和提取多种不同格式文档中的元数据...
- Python印刷体文字识别教程
-
在Python中实现印刷体文字识别(OCR),通常使用TesseractOCR引擎结合Python库。以下是详细步骤和示例:1.安装依赖库bashpipinstallpytesseractp...
- 图片转文字--四种OCR工具的安装和使用
-
本文仅测试简单的安装和使用,下一步应该是测试不同数据集下的检测准确率和检测效率,敬请期待。作者的系统环境是:笔记本:ThindPadP520OS:win11显卡:QuadroP520一、EasyO...
- mac 安装tesseract、pytesseract以及简单使用
-
一.tesseract-OCR的介绍1.tesseract-OCR是一个开源的OCR引擎,能识别100多种语言,专门用于对图片文字进行识别,并获取文本。但是它的缺点是对手写的识别能力比较差。2.用te...
- 【Python深度学习系列】Win10下CUDA+cuDNN+Tensorflow安装与配置
-
这是我的第292篇原创文章。一、前置知识安装GPU版本的pytorch和tensorflow之前需要理清楚这几个关系:显卡(电脑进行数模信号转换的设备,有的电脑可能是双显卡,一个是inter的集成显卡...
- 手把手教你本地部署AI绘图Stable Diffusion!成功率100%!
-
导语:无需每月付费订阅,无需高性能服务器!只需一台普通电脑,即可免费部署爆火的AI绘图工具StableDiffusion。本文提供“极速安装包”和“手动配置”双方案,从环境搭建到模型调试,手把手教你...
- 本地AI Agent Hello World(Python版): Ollama + LangChain 快速上手指南
-
概要本文将用最简洁的Python示例(后续还会推出Java版本),带你逐步完成本地大模型Agent的“HelloWorld”:1、介绍核心工具组件:Ollama、LangChain和...
- python解释器管理工具pyenv使用说明
-
简介pyenv可以对python解释器进行管理,可以安装不同版本的python,管理,切换不同版本很方便,配置安装上比anaconda方便。pyenv主要用来对Python解释器进行管理,可以...
- Deepseek实战:企业别只会用Ollama,也可以用SGLang
-
SGLang:企业级的“性能之王”优点吞吐量碾压级优势通过零开销批处理调度器、缓存感知负载均衡器等核心技术,SGLang的吞吐量提升显著。例如,在处理共享前缀的批量请求时,其吞吐量可达158,59...
- 用LLaMA-Factory对Deepseek大模型进行微调-安装篇
-
前面的文章已经把知识库搭建好了,还通过代码的形式做完了RAG的实验。接下来呢,咱们要通过实际操作来完成Deepseek的另一种优化办法——微调。一、环境因为我这台电脑性能不太好,所以就在Au...
- 碎片时间学Python-03包管理器
-
一、pip(Python官方包管理器)1.基础命令操作命令安装包pipinstallpackage安装特定版本pipinstallnumpy==1.24.0升级包pipinstall-...
- ubuntu22/24中利用国内源部署大模型(如何快速安装必备软件)
-
本地AI部署的基础环境,一般会用到docker,dockercompose,python环境,如果直接从官网下载,速度比较慢。特意记录一下ubuntu使用国内源快速来搭建基础平台。一,docke...
- 还不会deepseek部署到本地?这篇教程手把手教会你
-
一、为什么要把DeepSeek部署到本地?新手必看的前置知识近期很多读者在后台询问AI工具本地部署的问题,今天以国产优质模型DeepSeek为例,手把手教你实现本地化部署。本地部署有三大优势:数据隐私...
- 一周热门
- 最近发表
-
- tesseract-ocr 实现图片识别功能
- 跨平台Windows和Linux(银河麒麟)操作系统OCR识别应用
- JAVA程序员自救之路——SpringAI文档解析tika
- Python印刷体文字识别教程
- 图片转文字--四种OCR工具的安装和使用
- mac 安装tesseract、pytesseract以及简单使用
- 【Python深度学习系列】Win10下CUDA+cuDNN+Tensorflow安装与配置
- 手把手教你本地部署AI绘图Stable Diffusion!成功率100%!
- 本地AI Agent Hello World(Python版): Ollama + LangChain 快速上手指南
- python解释器管理工具pyenv使用说明
- 标签列表
-
- ps像素和厘米换算 (32)
- ps图案在哪里 (33)
- super().__init__ (33)
- python 获取日期 (34)
- 0xa (36)
- super().__init__()详解 (33)
- python安装包在哪里找 (33)
- linux查看python版本信息 (35)
- python怎么改成中文 (35)
- php文件怎么在浏览器运行 (33)
- eval在python中的意思 (33)
- python安装opencv库 (35)
- python div (34)
- sticky css (33)
- python中random.randint()函数 (34)
- python去掉字符串中的指定字符 (33)
- python入门经典100题 (34)
- anaconda安装路径 (34)
- yield和return的区别 (33)
- 1到10的阶乘之和是多少 (35)
- python安装sklearn库 (33)
- dom和bom区别 (33)
- js 替换指定位置的字符 (33)
- python判断元素是否存在 (33)
- sorted key (33)