百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

本地AI Agent Hello World(Python版): Ollama + LangChain 快速上手指南

itomcoil 2025-05-14 14:08 23 浏览

概要

本文将用最简洁的 Python 示例(后续还会推出 Java 版本),带你逐步完成本地大模型 Agent 的“Hello World”:

1、介绍核心工具组件:Ollama、LangChain 和 LangServe;

2、进行环境安装;

3、通过一段完整的 Python 代码示例,实现本地启动、调用大模型,并构建你的第一个本地 AI Agent 智能体。

在动手之前,不妨先了解一下本地构建 AI Agent 的四大优势:

数据本地留存:全程无需外发,杜绝传输泄露风险;

合规与隐私:满足 GDPR、HIPAA 等严格法规对数据本地化的要求;

独立可控:摆脱在线服务的策略调整与网络波动影响;

机密保护:关键研发与商业数据绝不外泄,最大程度保全知识产权。

接下来,我们将直接进入核心组件的介绍与实操讲解,让你在最短时间内完成本地 AI Agent 的“Hello World”的搭建。


Ollama

客户端 (Client) 与服务端 (Server) 分离

Ollama 采用经典的前后端分离架构:客户端(CLI 或 SDK)负责向用户暴露命令与接口,服务端(用 Go 实现的 ollama-http-server)则提供 REST API,二者通过本机 HTTP 通信完成指令下发与结果回传 。

Modelfile:模型与配置的一体化

1、Modelfile 将模型权重、tokenizer、系统提示(system prompt)及运行参数打包在同一个目录或文件中,类似于 Docker 镜像的概念,一次 ollama pull <model> 即可获取全部所需资源。

2、通过 ollama show <model> 可以快速查看 Modelfile 的元数据信息,如模型大小、license、支持的硬件加速等 。

推理引擎与硬件加速

1、Ollama 内部集成了高效的推理后端(如 llama.cpp),支持 CPU 多线程与 GPU CUDA 加速,能够在无 GPU 的设备(例如 Raspberry Pi)上也执行基本推理 。

2、用户可在 Modelfile 中指定 device: gpu 或通过环境变量控制并发线程数,以达到性能与资源利用的最佳平衡 。


LangChain

核心接口与模块划分

LangChain 将 LLM 应用拆分为若干可组合的接口与模块,包括:

1、Models:封装各种 LLM 提供者(本地 Ollama、OpenAI、Anthropic 等)的统一调用接口。

2、Prompts:定义 Prompt 模板与变量注入规则,简化大规模 Prompt 管理。

3、Chains:可串联的执行单元,将多个调用(如检索→生成→解析)组成流水线。

4、Tools:第三方 API、脚本或自定义函数的抽象化,可由 Agent 动态调度。

5、Agents:具备“感知—决策—执行”循环的智能体,自动选择适当 Tools 处理复杂任务。

多样化存储与记忆(Memory & Indexes)

1、Memory:提供对话历史、检索结果等上下文的持久化方案,支持短期(会话级)和长期(文件级)记忆管理 。

2、Indexes/Vector Stores:结合向量检索框架(如 FAISS、Weaviate)实现 RAG(Retrieval-Augmented Generation),将外部文档作为 Prompt 源增强回答准确性 。


LangServe(LangChain-Serve)

快速部署为 REST API

LangServe(即 langchain-serve)基于 FastAPI,使用简单的装饰器(@serve.serving)即可将任意 Chain、Agent 或 Runnable 暴露为 HTTP 接口,并自动生成 OpenAPI 文档。

丰富的服务特性

1、流式输出 (Streaming):支持将模型生成的 Token 实时推送给客户端,适合对话与写作助手场景。

2、批量处理 (Batching):一次性接受多条请求,合并推理以提升吞吐量,降低网络与计算开销。

3、多并发支持:基于 Uvicorn/Gunicorn 实现多进程、异步 I/O,轻松应对高并发访问 。

与 Ollama & LangChain 无缝集成

1、在 LangServe 中,只需将 ollama.llm("模型名") 得到的 LLMChain 作为 Runnable 注入,即可直接通过 HTTP 端点调用本地 Ollama 服务。

2、完全兼容 LangChain 的所有工具与 Memory,使得原型与生产环境部署之间零改动。


环境安装

硬件与系统要求

1、操作系统:macOS、Linux(Ubuntu/Debian)或 Windows Subsystem for Linux(WSL)均可。

2、硬件:建议至少 8 GB 内存,若要较流畅地运行 7B 以上级别模型,需配备 NVIDIA/AMD GPU(安装对应驱动)或 Apple Silicon 芯片。

安装 Ollama

命令行安装

1、Linux / macOS:curl -fsSL
https://ollama.com/install.sh | sh

2、macOS:也可通过 brew install ollama 安装

3、Windows (PowerShell):iwr
https://ollama.com/install.ps1 -useb | iex

官网下载安装

官网地址:
https://ollama.com/download

根据系统自行选择下载安装即可。

安装成功检验

在终端里面输入:ollama serve

在浏览器例如输入:http://127.0.0.1:11434,出现“Ollama is running”说明安装成功。

安装本地大模型

在 https://ollama.com/search 里面找到自己需要的大模型,我本地安装了 qwen3:1.7b 和 deepseek-r1:8b。使用命令 ollama pull qwen3:1.7b 安装;

安装完后,可以通过 ollama list 查看本地安装的大模型。

Python及依赖安装

示例代码通过miniconda来做Python环境隔离,poetry来做依赖管理。miniconda安装参考:
https://docs.anaconda.net.cn/miniconda/install/。

下载对应代码示例:
https://github.com/joyang1/AI_Agent_Py_Demos,切换到示例代码根目录,按下述不走运行:

1、创建conda隔离环境:conda create -n py12 python=3.12

2、激活conda环境:conda activate py12

3、在conda环境里面安装poetry:pip install poetry

4、安装依赖:poetry install


代码运行

CLI代码运行

from langchain_ollama.llms import OllamaLLM

class CustomChatAgentCLi(object):
    @property
    def _llm_type(self) -> str:
        # 返回我们自定义的模型标记
        return "qwen3-1.7b"

    def __init__(self):
        self.llm = OllamaLLM(base_url="http://127.0.0.1:11434", model="deepseek-r1:8b")

    def llama_completion(self, user_input) -> str:
        # 调用llama的接口,返回响应
        # return "Hello from llama!"
        try:
            response = self.llm.invoke(user_input)
            return response
        except Exception as e:
            print(f"error:{e}")
        return "error"

llm = CustomChatAgentCLi()
print(llm.llama_completion("你是谁?"))


结合LangServe通过UI运行

然后在浏览器输入:
http://localhost:8000/writer/playground/

出现如下页面说明启动UI启动成功。

我本地的AI Agent是一个专注于前沿技术(大模型)知识分享的博主。你可以输入任意的主题,让它帮你写一篇 markdown 格式的博文。

下面你可以输入对应的主题进行,比如我输入:大模型从0到1入门。输出如下:

相关推荐

selenium(WEB自动化工具)

定义解释Selenium是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7,8,9,10,11),MozillaF...

开发利器丨如何使用ELK设计微服务中的日志收集方案?

【摘要】微服务各个组件的相关实践会涉及到工具,本文将会介绍微服务日常开发的一些利器,这些工具帮助我们构建更加健壮的微服务系统,并帮助排查解决微服务系统中的问题与性能瓶颈等。我们将重点介绍微服务架构中...

高并发系统设计:应对每秒数万QPS的架构策略

当面试官问及"如何应对每秒几万QPS(QueriesPerSecond)"时,大概率是想知道你对高并发系统设计的理解有多少。本文将深入探讨从基础设施到应用层面的解决方案。01、理解...

2025 年每个 JavaScript 开发者都应该了解的功能

大家好,很高兴又见面了,我是"高级前端进阶",由我带着大家一起关注前端前沿、深入前端底层技术,大家一起进步,也欢迎大家关注、点赞、收藏、转发。1.Iteratorhelpers开发者...

JavaScript Array 对象

Array对象Array对象用于在变量中存储多个值:varcars=["Saab","Volvo","BMW"];第一个数组元素的索引值为0,第二个索引值为1,以此类推。更多有...

Gemini 2.5编程全球霸榜,谷歌重回AI王座,神秘模型曝光,奥特曼迎战

刚刚,Gemini2.5Pro编程登顶,6美元性价比碾压Claude3.7Sonnet。不仅如此,谷歌还暗藏着更强的编程模型Dragontail,这次是要彻底翻盘了。谷歌,彻底打了一场漂亮的翻...

动力节点最新JavaScript教程(高级篇),深入学习JavaScript

JavaScript是一种运行在浏览器中的解释型编程语言,它的解释器被称为JavaScript引擎,是浏览器的一部分,JavaScript广泛用于浏览器客户端编程,通常JavaScript脚本是通过嵌...

一文看懂Kiro,其 Spec工作流秒杀Cursor,可移植至Claude Code

当Cursor的“即兴编程”开始拖累项目质量,AWS新晋IDEKiro以Spec工作流打出“先规范后编码”的系统工程思维:需求-设计-任务三件套一次生成,文档与代码同步落地,复杂项目不...

「晚安·好梦」努力只能及格,拼命才能优秀

欢迎光临,浏览之前点击上面的音乐放松一下心情吧!喜欢的话给小编一个关注呀!Effortscanonlypass,anddesperatelycanbeexcellent.努力只能及格...

JavaScript 中 some 与 every 方法的区别是什么?

大家好,很高兴又见面了,我是姜茶的编程笔记,我们一起学习前端相关领域技术,共同进步,也欢迎大家关注、点赞、收藏、转发,您的支持是我不断创作的动力在JavaScript中,Array.protot...

10个高效的Python爬虫框架,你用过几个?

小型爬虫需求,requests库+bs4库就能解决;大型爬虫数据,尤其涉及异步抓取、内容管理及后续扩展等功能时,就需要用到爬虫框架了。下面介绍了10个爬虫框架,大家可以学习使用!1.Scrapysc...

12个高效的Python爬虫框架,你用过几个?

实现爬虫技术的编程环境有很多种,Java、Python、C++等都可以用来爬虫。但很多人选择Python来写爬虫,为什么呢?因为Python确实很适合做爬虫,丰富的第三方库十分强大,简单几行代码便可实...

pip3 install pyspider报错问题解决

运行如下命令报错:>>>pip3installpyspider观察上面的报错问题,需要安装pycurl。是到这个网址:http://www.lfd.uci.edu/~gohlke...

PySpider框架的使用

PysiderPysider是一个国人用Python编写的、带有强大的WebUI的网络爬虫系统,它支持多种数据库、任务监控、项目管理、结果查看、URL去重等强大的功能。安装pip3inst...

「机器学习」神经网络的激活函数、并通过python实现激活函数

神经网络的激活函数、并通过python实现whatis激活函数感知机的网络结构如下:左图中,偏置b没有被画出来,如果要表示出b,可以像右图那样做。用数学式来表示感知机:上面这个数学式子可以被改写:...