百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

比ollama性能强大更全面的Xinference模型平台的详细安装步骤

itomcoil 2025-10-19 05:57 3 浏览

Xinference 是一个性能强大且功能全面的平台,旨在让您轻松运行和管理各种大型语言模型(LLMs)、嵌入模型(embedding models)和多模态模型(multimodal models)。它具有以下特点:

  • 多模型支持: 支持各种开源 LLMs(如 LLaMA、Falcon、ChatGLM 等)、嵌入模型和多模态模型。
  • 分布式部署: 可以在单机、多机甚至集群上部署,实现高可用性和可扩展性。
  • 易于使用: 提供了简单的命令行界面(CLI)和 Web UI,方便您管理和使用模型。
  • 内置优化: 包含了多种模型推理优化技术,如 GGML、GPTQ 等,提高推理速度。
  • 兼容 OpenAI API: 提供了与 OpenAI API 兼容的接口,方便您将现有应用迁移到 Xinference。

部署步骤

  1. 安装 Python 环境 (建议使用 conda)
  2. 由于 Xinference 是 Python 项目,您需要先安装 Python 环境。强烈建议使用 conda 来管理 Python 环境,避免潜在的依赖冲突。
  3. 安装 Miniconda 或 Anaconda:
  4. Miniconda: https://docs.conda.io/en/latest/miniconda.html
  5. Anaconda: https://www.anaconda.com/products/distribution
  6. 下载对应 macOS (Apple Silicon) 的安装包,按照提示安装。安装完成后,打开终端,输入 conda --version,如果能看到版本号,则表示安装成功。
  7. 创建 conda 环境:
  8. conda create -n xinference python=3.10 # 建议使用 Python 3.10 conda activate xinference
  9. content_copydownload
  10. Use code with caution.Bash
  11. 安装 Xinference
  12. 有两种安装方式:
  13. 方式一:使用 pip 安装 (推荐)
  14. pip install "xinference[all]" # 安装所有依赖,包括 Web UI 和各种加速库
  15. content_copydownload
  16. Use code with caution.Bash
  17. 如果网络不好, 使用国内源
  18. pip install "xinference[all]" -i https://pypi.tuna.tsinghua.edu.cn/simple
  19. content_copydownload
  20. Use code with caution.Bash
  21. 方式二:从源码安装 (适合开发者)
  22. git clone https://github.com/xorbitsai/inference.git cd inference pip install -e ".[all]"
  23. content_copydownload
  24. Use code with caution.Bash
  25. 如果网络不好, 使用国内源
  26. pip install -e ".[all]" -i https://pypi.tuna.tsinghua.edu.cn/simple
  27. content_copydownload
  28. Use code with caution.Bash
  29. 启动 Xinference 服务
  30. 本地单机模式启动:
  31. xinference-local
  32. content_copydownload
  33. Use code with caution.Bash
  34. 这将启动一个本地 Xinference 服务,监听默认端口 9997。您可以通过浏览器访问 http://localhost:9997 来查看 Web UI。
  35. 部署和使用模型
  36. Xinference Web UI 提供了图形化界面,方便您部署和管理模型。您也可以使用命令行工具。
  37. Web UI 方式:
    1. 打开浏览器,访问 http://localhost:9997。
    2. 点击 "Launch Model" 按钮。
    3. 选择您想要部署的模型(例如,chatglm3-6b)。
    4. 填写模型相关参数(例如,模型路径、量化方式等)。如果模型不在本地, xinference将自动下载模型。
    5. 点击 "Launch" 按钮,等待模型加载完成。
    6. 模型加载完成后,您可以在 "Chat with Model" 页面与模型进行交互。
  38. 命令行方式:
    1. 启动一个模型:
      以chatglm3-6b为例, 内置支持的模型不需要指定模型路径
    2. xinference launch --model-name chatglm3 --model-format pytorch --model-size-in-billions 6
    3. content_copydownload
    4. Use code with caution.Bash
    5. 如果需要指定模型路径
    6. xinference launch --model-name chatglm3 --model-format pytorch --model-size-in-billions 6 --model-path /path/to/your/chatglm3-6b
    7. content_copydownload
    8. Use code with caution.Bash
    9. 查看已启动的模型:
    10. xinference list
    11. content_copydownload
    12. Use code with caution.Bash
    13. 与模型交互(使用 curl 或 Python):
      获取模型的endpoint和model_uid
    14. $ xinference list +--------------------------------------+-----------------------------------------------------------------------+------------+ | model_uid | endpoint | model_name | +--------------------------------------+-----------------------------------------------------------------------+------------+ | 82e9895b6e474cb9b39987c47ab27439 | http://localhost:9997/v1/models/82e9895b6e474cb9b39987c47ab27439 | chatglm3 | +--------------------------------------+-----------------------------------------------------------------------+------------+
    15. content_copydownload
    16. Use code with caution.Bash
    17. 使用 curl:
    18. curl -X POST \ -H "Content-Type: application/json" \ -d '{ "prompt": "你好", "model": "chatglm3" }' \ http://localhost:9997/v1/chat/completions
    19. content_copydownload
    20. Use code with caution.Bash
    21. 使用 Python (OpenAI 客户端):
    22. from openai import OpenAI client = OpenAI( base_url="http://localhost:9997/v1", # 替换为您的 Xinference endpoint api_key="EMPTY", # Xinference 不需要 API key ) completion = client.chat.completions.create( model="82e9895b6e474cb9b39987c47ab27439", # 替换为您的 model_uid messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你好!"} ] ) print(completion.choices[0].message)
    23. content_copydownload
    24. Use code with caution.Python

注意事项

  • 模型下载: 首次部署模型时,Xinference 会自动下载模型文件。请确保您的网络连接良好,并有足够的存储空间。
  • 硬件要求: 运行 LLMs 对硬件有一定的要求,特别是 GPU 内存。如果您的 GPU 内存不足,可以尝试使用量化后的模型(如 GPTQ 格式)或较小的模型。
  • 模型路径: 命令行启动模型时,如果模型不在 xinference 的内置模型列表中,您需要指定 --model-path 为您的本地模型路径。
  • 端口冲突: 如果默认端口 9997 被占用,您可以使用 --host 和 --port 参数指定其他主机和端口。

进阶使用

  • 分布式部署: Xinference 支持分布式部署,可以参考官方文档了解更多信息:https://inference.readthedocs.io/en/latest/guides/distributed_deployment.html
  • 自定义模型: 您可以部署自己训练的模型,具体方法请参考官方文档:https://inference.readthedocs.io/en/latest/guides/register_custom_model.html
  • 模型加速: Xinference 支持多种模型加速技术,如 GGML、GPTQ 等,可以根据您的硬件和模型选择合适的加速方式。

希望这个详细的教程能帮助您在电脑上成功部署 Xinference!如果您在部署过程中遇到任何问题,欢迎随时提问。

相关推荐

python创建文件夹,轻松搞定,喝咖啡去了

最近经常在录视频课程,一个课程下面往往有许多小课,需要分多个文件夹来放视频、PPT和案例,这下可好了,一个一个手工创建,手酸了都做不完。别急,来段PYTHON代码,轻松搞定,喝咖啡去了!import...

如何编写第一个Python程序_pycharm写第一个python程序

一、第一个python程序[掌握]python:python解释器,将python代码解释成计算机认识的语言pycharm:IDE(集成开发环境),写代码的一个软件,集成了写代码,...

Python文件怎么打包为exe程序?_python3.8打包成exe文件

PyInstaller是一个Python应用程序打包工具,它可以将Python程序打包为单个独立可执行文件。要使用PyInstaller打包Python程序,需要在命令行中使用py...

官方的Python环境_python环境版本

Python是一种解释型编程开发语言,根据Python语法编写出来的程序,需要经过Python解释器来进行执行。打开Python官网(https://www.python.org),找到下载页面,选择...

[编程基础] Python配置文件读取库ConfigParser总结

PythonConfigParser教程显示了如何使用ConfigParser在Python中使用配置文件。文章目录1介绍1.1PythonConfigParser读取文件1.2Python...

Python打包exe软件,用这个库真的很容易

初学Python的人会觉得开发一个exe软件非常复杂,其实不然,从.py到.exe文件的过程很简单。你甚至可以在一天之内用Python开发一个能正常运行的exe软件,因为Python有专门exe打包库...

2025 PyInstaller 打包说明(中文指南),python 打包成exe 都在这里

点赞标记,明天就能用上这几个技巧!linux运维、shell、python、网络爬虫、数据采集等定定做,请私信。。。PyInstaller打包说明(中文指南)下面按准备→基本使用→常用...

Python自动化办公应用学习笔记40—文件路径2

4.特殊路径操作用户主目录·获取当前用户的主目录路径非常常用:frompathlibimportPathhome_dir=Path.home()#返回当前用户主目录的Path对象...

Python内置tempfile模块: 生成临时文件和目录详解

1.引言在Python开发中,临时文件和目录的创建和管理是一个常见的需求。Python提供了内置模块tempfile,用于生成临时文件和目录。本文将详细介绍tempfile模块的使用方法、原理及相关...

python代码实现读取文件并生成韦恩图

00、背景今天战略解码,有同学用韦恩图展示各个产品线的占比,效果不错。韦恩图(Venndiagram),是在集合论数学分支中,在不太严格的意义下用以表示集合的一种图解。它们用于展示在不同的事物群组之...

Python技术解放双手,一键搞定海量文件重命名,一周工作量秒搞定

摘要:想象一下,周五傍晚,办公室的同事们纷纷准备享受周末,而你,面对着堆积如山的文件,需要将它们的文件名从美国日期格式改为欧洲日期格式,这似乎注定了你将与加班为伍。但别担心,Python自动化办公来...

Python路径操作的一些基础方法_python路径文件

带你走进@机器人时代Discover点击上面蓝色文字,关注我们Python自动化操作文件避开不了路径操作方法,今天我们来学习一下路径操作的一些基础。Pathlib库模块提供的路径操作包括路径的...

Python爬取下载m3u8加密视频,原来这么简单

1.前言爬取视频的时候发现,现在的视频都是经过加密(m3u8),不再是mp4或者avi链接直接在网页显示,都是经过加密形成ts文件分段进行播放。今天就教大家如果通过python爬取下载m3u8加密视频...

探秘 shutil:Python 高级文件操作的得力助手

在Python的标准库中,shutil模块犹如一位技艺精湛的工匠,为我们处理文件和目录提供了一系列高级操作功能。无论是文件的复制、移动、删除,还是归档与解压缩,shutil都能以简洁高效的方式完成...

怎么把 Python + Flet 开发的程序,打包为 exe ?这个方法很简单!

前面用Python+Flet开发的“我的计算器v3”,怎么打包为exe文件呢?这样才能分发给他人,直接“双击”运行使用啊!今天我给大家分享一个简单的、可用的,把Flet开发的程序打包为...