百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

PyTorch学习-Day 1:PyTorch简介与安装(Mac兼容版)

itomcoil 2025-04-30 17:31 4 浏览


在Mac上调试PyTorch时,需要注意Mac不支持NVIDIA GPU和CUDA加速,因此只能使用CPU版本,或者如果你的Mac配备了Apple Silicon(M1/M2芯片),可以利用Apple的Metal Performance Shaders (MPS) 来加速计算。以下是针对“Day 1:PyTorch简介与安装”的调整版本,兼容Mac本地环境,并包含代码示例。


Day 1:PyTorch简介与安装(Mac兼容版)

学习内容

  1. PyTorch是什么?
  2. PyTorch 是一个开源深度学习框架,以动态计算图著称,适合研究和快速原型开发。
  3. 在Mac上,PyTorch主要运行在CPU上,M1/M2芯片可通过MPS加速。
  4. 为什么选择PyTorch?
  5. 灵活性高,调试方便,Python风格代码易上手。
  6. 支持Mac原生环境,尤其在Apple Silicon上有优化。
  7. Mac上的版本选择
  8. CPU版本:适用于所有Mac,安装简单。
  9. MPS支持:Apple Silicon(M1/M2)专用,提供类似GPU的加速(需PyTorch 1.12+)。
  10. Mac不支持CUDA,因此无需安装GPU相关包。

任务

  • 在Mac本地安装PyTorch(CPU或MPS版本)。
  • 运行代码测试环境,检查设备支持(CPU或MPS)。

资源建议

  • PyTorch官网:访问 pytorch.org/get-started,选择“MacOS”并根据芯片类型(Intel/Apple Silicon)获取安装命令。
  • MPS文档:PyTorch官方MPS支持说明(pytorch.org/docs/stable/notes/mps.html)。

安装步骤(Mac本地)

1. 使用pip安装

  • Intel Mac(CPU版本)
  • bash
  • pip install torch torchvision torchaudio
  • Apple Silicon(M1/M2,推荐MPS支持)
  • bash
  • pip install torch torchvision torchaudio
    • 确保使用Python 3.8+,PyTorch 1.12+默认支持MPS。

2. 使用Conda安装(可选)

  • 创建虚拟环境:
  • bash
  • conda create -n pytorch_env python=3.10 conda activate pytorch_env
  • 安装PyTorch:
  • bash
  • conda install pytorch torchvision torchaudio -c pytorch

3. 验证安装

打开终端,运行Python:

python

import torch
print(torch.__version__)  # 示例输出:2.2.1

代码示例(Mac兼容版)

以下代码适配Mac环境,检测CPU或MPS设备,并执行简单张量操作。

python

import torch

# 检查PyTorch版本
print("PyTorch版本:", torch.__version__)

# 检查可用设备
if torch.backends.mps.is_available() and torch.backends.mps.is_built():
    device = torch.device("mps")  # Apple Silicon (M1/M2) 使用 MPS
    print("使用设备: MPS (Metal Performance Shaders)")
else:
    device = torch.device("cpu")  # 默认使用 CPU
    print("使用设备: CPU")

# 创建一个2x2张量并移动到指定设备
x = torch.tensor([[1, 2], [3, 4]], dtype=torch.float32).to(device)
print("张量 x:\n", x)

# 简单加法
y = x + 2
print("x + 2:\n", y)

# 检查张量所在设备
print("张量所在设备:", x.device)

输出示例

1. Apple Silicon (M1/M2) with MPS

如果你的Mac是M1/M2且PyTorch支持MPS:

PyTorch版本: 2.2.1
使用设备: MPS (Metal Performance Shaders)
张量 x:
 tensor([[1., 2.],
         [3., 4.]], device='mps:0')
x + 2:
 tensor([[3., 4.],
         [5., 6.]], device='mps:0')
张量所在设备: mps:0

2. Intel Mac (CPU)

如果使用Intel芯片或MPS不可用:

PyTorch版本: 2.2.1
使用设备: CPU
张量 x:
 tensor([[1., 2.],
         [3., 4.]])
x + 2:
 tensor([[3., 4.],
         [5., 6.]])
张量所在设备: cpu

注意事项

  1. MPS支持条件
  2. 需要PyTorch 1.12+(推荐最新版)。
  3. macOS 12.3+,M1/M2芯片。
  4. 如果MPS不可用(torch.backends.mps.is_available()返回False),自动回退到CPU。
  5. 安装问题排查
  6. 确保pip/conda版本最新(pip install --upgrade pip)。
  7. 如果遇到依赖冲突,尝试在干净的虚拟环境中安装:
  8. bash
  9. python -m venv pytorch_env source pytorch_env/bin/activate pip install torch torchvision torchaudio
  10. 性能提示
  11. MPS加速不如NVIDIA GPU,但比CPU快约2-3倍,适合小型实验。
  12. 复杂模型可能需云端GPU(如Colab)。

后续准备

完成Day 1后,你已在Mac上成功安装PyTorch并验证了环境。明天(Day 2)将进入张量操作的学习,代码将继续兼容Mac环境。如果安装或运行中有问题,随时告诉我,我会帮你调整!祝你学习顺利!

相关推荐

tesseract-ocr 实现图片识别功能

最近因为项目需要,接触了一下关于图像识别的相关内容,例如Tesseract。具体如何安装、设置在此不再赘述。根据项目要求,我们需要从省平台获取实时雨水情况数据,原以为获取这样的公开数据比较简单,上去一...

跨平台Windows和Linux(银河麒麟)操作系统OCR识别应用

1运行效果在银河麒麟桌面操作系统V10(SP1)上运行OCR识别效果如下图:2在Linux上安装TesseractOCR引擎2.1下载tesseract-ocr和leptonicahttps:...

JAVA程序员自救之路——SpringAI文档解析tika

ApacheTika起源于2007年3月,最初是ApacheLucene项目的子项目,于2010年5月成为Apache组织的顶级项目。它利用现有的解析类库,能够侦测和提取多种不同格式文档中的元数据...

Python印刷体文字识别教程

在Python中实现印刷体文字识别(OCR),通常使用TesseractOCR引擎结合Python库。以下是详细步骤和示例:1.安装依赖库bashpipinstallpytesseractp...

图片转文字--四种OCR工具的安装和使用

本文仅测试简单的安装和使用,下一步应该是测试不同数据集下的检测准确率和检测效率,敬请期待。作者的系统环境是:笔记本:ThindPadP520OS:win11显卡:QuadroP520一、EasyO...

mac 安装tesseract、pytesseract以及简单使用

一.tesseract-OCR的介绍1.tesseract-OCR是一个开源的OCR引擎,能识别100多种语言,专门用于对图片文字进行识别,并获取文本。但是它的缺点是对手写的识别能力比较差。2.用te...

【Python深度学习系列】Win10下CUDA+cuDNN+Tensorflow安装与配置

这是我的第292篇原创文章。一、前置知识安装GPU版本的pytorch和tensorflow之前需要理清楚这几个关系:显卡(电脑进行数模信号转换的设备,有的电脑可能是双显卡,一个是inter的集成显卡...

手把手教你本地部署AI绘图Stable Diffusion!成功率100%!

导语:无需每月付费订阅,无需高性能服务器!只需一台普通电脑,即可免费部署爆火的AI绘图工具StableDiffusion。本文提供“极速安装包”和“手动配置”双方案,从环境搭建到模型调试,手把手教你...

本地AI Agent Hello World(Python版): Ollama + LangChain 快速上手指南

概要本文将用最简洁的Python示例(后续还会推出Java版本),带你逐步完成本地大模型Agent的“HelloWorld”:1、介绍核心工具组件:Ollama、LangChain和...

python解释器管理工具pyenv使用说明

简介pyenv可以对python解释器进行管理,可以安装不同版本的python,管理,切换不同版本很方便,配置安装上比anaconda方便。pyenv主要用来对Python解释器进行管理,可以...

Deepseek实战:企业别只会用Ollama,也可以用SGLang

SGLang:企业级的“性能之王”优点吞吐量碾压级优势通过零开销批处理调度器、缓存感知负载均衡器等核心技术,SGLang的吞吐量提升显著。例如,在处理共享前缀的批量请求时,其吞吐量可达158,59...

用LLaMA-Factory对Deepseek大模型进行微调-安装篇

前面的文章已经把知识库搭建好了,还通过代码的形式做完了RAG的实验。接下来呢,咱们要通过实际操作来完成Deepseek的另一种优化办法——微调。一、环境因为我这台电脑性能不太好,所以就在Au...

碎片时间学Python-03包管理器

一、pip(Python官方包管理器)1.基础命令操作命令安装包pipinstallpackage安装特定版本pipinstallnumpy==1.24.0升级包pipinstall-...

ubuntu22/24中利用国内源部署大模型(如何快速安装必备软件)

本地AI部署的基础环境,一般会用到docker,dockercompose,python环境,如果直接从官网下载,速度比较慢。特意记录一下ubuntu使用国内源快速来搭建基础平台。一,docke...

还不会deepseek部署到本地?这篇教程手把手教会你

一、为什么要把DeepSeek部署到本地?新手必看的前置知识近期很多读者在后台询问AI工具本地部署的问题,今天以国产优质模型DeepSeek为例,手把手教你实现本地化部署。本地部署有三大优势:数据隐私...