登录
首页 >  文章 >  python教程

M1/M2Mac用MPS加速YOLOv8训练教程

时间:2026-02-21 10:54:47 497浏览 收藏

本文手把手教你如何在M1/M2 Mac上真正用上Metal Performance Shaders(MPS)加速YOLOv8训练——不仅避开“Torch not compiled with CUDA enabled”这一经典报错,更揭秘Ultralytics自动批处理机制与MPS不兼容的底层原因,并给出可直接运行的修复代码:禁用autobatch、显式设置batch=8–16、强制amp=False、使用device='mps'字符串而非torch.device对象,配合PyTorch 2.1+和Ultralytics 8.1+环境配置,即可在MacBook Air/Pro上实现比CPU快3–5倍的稳定训练,堪称Apple Silicon用户进行高效目标检测开发的必读实战指南。

如何在 macOS(M1/M2)上正确使用 MPS 加速训练 YOLOv8

本文详解在 Apple Silicon Mac(如 M1/M2 MacBook Air/Pro)上启用 Metal Performance Shaders(MPS)加速 YOLOv8 训练的完整方案,解决因误调 CUDA 接口导致的 AssertionError: Torch not compiled with CUDA enabled 报错,并提供可直接运行的配置代码与关键注意事项。

本文详解在 Apple Silicon Mac(如 M1/M2 MacBook Air/Pro)上启用 Metal Performance Shaders(MPS)加速 YOLOv8 训练的完整方案,解决因误调 CUDA 接口导致的 `AssertionError: Torch not compiled with CUDA enabled` 报错,并提供可直接运行的配置代码与关键注意事项。

YOLOv8 原生支持 Apple 的 Metal Performance Shaders(MPS)后端,可在搭载 M1/M2/M3 芯片的 macOS 设备上显著提升训练速度(相比纯 CPU 可提速 3–5 倍)。但默认情况下,Ultralytics 的自动批处理(autobatch)和部分设备检测逻辑仍会尝试调用 torch.cuda.* 接口——而 macOS 版 PyTorch 完全不包含 CUDA 支持(无 NVIDIA GPU),导致 torch.cuda.get_device_properties() 等函数直接抛出 AssertionError,即使你已显式指定 device='mps'。

根本原因在于:Ultralytics v8.0.200+ 虽已适配 MPS,但其 check_train_batch_size() 函数内部未区分 mps 与 cuda 设备,仍强制执行 CUDA 相关检查。因此,不能依赖自动 batch size 推导,必须手动禁用该机制并显式设置合理批大小。

✅ 正确做法如下:

1. 确保环境满足前提条件

  • macOS 12.3 或更高版本(MPS 最低要求)
  • Python ≥ 3.9(推荐 3.11)
  • PyTorch ≥ 2.1.0(需带 MPS 支持):
    pip uninstall torch torchvision torchaudio
    pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/macos
  • Ultralytics ≥ 8.1.0(强烈建议升级至最新稳定版):
    pip install --upgrade ultralytics

2. 关键修复:禁用自动 batch size 检测 + 显式指定 device

将原始代码:

results = model.train(
    data=data,
    epochs=epochs,
    batch=batch_size,  # ← 若设为 -1 或未指定,会触发 autobatch → 报错!
    imgsz=img_size,
    project=project_name,
    name=model_name,
    device=torch.device('mps')  # ← 此处合法,但后续 autobatch 会崩溃
)

改为显式关闭自动批处理,并固定 batch 值(推荐 8–16,视内存而定):

from ultralytics import YOLO
import torch

# 确认 MPS 可用
if torch.backends.mps.is_available():
    device = 'mps'
    print("✅ MPS backend is available.")
else:
    device = 'cpu'
    print("⚠️  MPS not available, falling back to CPU.")

model = YOLO('yolov8s.pt')

# ✅ 关键:显式设置 batch(不可为 -1 或 None),并关闭 auto-batch 干扰
results = model.train(
    data=data,
    epochs=epochs,
    batch=8,                # ← 必须为正整数!M2 Air 建议 4–8;M2 Pro/Max 可试 12–16
    imgsz=img_size,
    project=project_name,
    name=model_name,
    device=device,          # ← 字符串 'mps' 更稳妥,等价于 torch.device('mps')
    amp=False,              # ⚠️ MPS 当前不支持 AMP(自动混合精度),必须设为 False
    workers=2,              # macOS 上 dataloader workers 过高易卡死,建议 0–2
    cache='ram'             # 可选:小数据集启用内存缓存加速加载
)

3. 补充注意事项

  • amp=False 是硬性要求:截至 PyTorch 2.3 和 Ultralytics 8.2.x,MPS 后端尚未实现 torch.cuda.amp 兼容的混合精度训练,启用 amp=True 将导致 RuntimeError。
  • *避免 `torch.cuda.任何调用**:自定义回调、日志或数据增强中切勿出现torch.cuda.synchronize()、.cuda()等语句;统一使用.to(device)`。
  • 内存监控:MPS 内存不透明,若训练中出现 MemoryError 或内核崩溃,请立即降低 batch 或 imgsz(如从 640→320)。
  • 验证 MPS 是否生效:训练日志首行应显示 device=mps,且 GPU 利用率可在「活动监视器」→「GPU History」中观察到明显占用。

总结

在 macOS Apple Silicon 上训练 YOLOv8,核心原则是:绕过所有 CUDA 检查路径,显式控制设备、批大小与精度模式。只要禁用 autobatch(即不传 batch=-1)、关闭 amp、使用 device='mps' 字符串,并确保 PyTorch 和 Ultralytics 版本达标,即可稳定获得 3×+ 的训练加速。这是目前在无独立 GPU 的 Mac 上进行高效目标检测训练的最优实践。

理论要掌握,实操不能落!以上关于《M1/M2Mac用MPS加速YOLOv8训练教程》的详细介绍,大家都掌握了吧!如果想要继续提升自己的能力,那么就来关注golang学习网公众号吧!

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>