登录
首页 >  科技周边 >  人工智能

DeepSeek开源FlashMLA,推理加速惊人

时间:2025-02-27 15:00:56 236浏览 收藏

DeepSeek开源高效型MLA解码内核FlashMLA,助力Hopper GPU推理加速!该项目针对Hopper GPU架构优化,通过减少KV Cache并优化可变长度序列处理,显著降低长上下文推理成本,在H800 SXM5 GPU上内存速度上限达3000 GB/s,计算上限达580 TFLOPS。 FlashMLA支持BF16精度和64大小的分页kvcache,仅开源45分钟便收获400+Star,Star数量持续飙升。项目已支持CUDA 12.3及以上版本和PyTorch 2.0及以上版本,GitHub地址:https://github.com/deepseek-ai/FlashMLA。

DeepSeek开源高效型MLA解码核FlashMLA,助力Hopper GPU推理加速!上周五DeepSeek预告开源周计划,并于北京时间周一上午9点开源了首个项目——FlashMLA,一款针对Hopper GPU优化的高效MLA解码内核,仅上线45分钟便收获400+Star!

image.png

该项目Star数量持续飙升!

image.png

项目地址:https://github.com/deepseek-ai/FlashMLA

FlashMLA的核心在于优化可变长度序列处理,减少推理过程中的KV Cache,从而在有限硬件资源下实现更长上下文推理,显著降低推理成本。 目前已发布的版本支持BF16精度和64大小的分页kvcache,在H800 SXM5 GPU上内存速度上限达3000 GB/s,计算上限达580 TFLOPS。

使用条件:

  • Hopper GPU
  • CUDA 12.3及以上版本
  • PyTorch 2.0及以上版本

快速上手:

安装:

python setup.py install

基准测试:

python tests/test_flash_mla.py

在H800 SXM5上使用CUDA 12.6,内存绑定配置下可达3000 GB/s,计算绑定配置下可达580 TFLOPS。

使用方法示例:

from flash_mla import get_mla_metadata, flash_mla_with_kvcache

tile_scheduler_metadata, num_splits = get_mla_metadata(cache_seqlens, s_q * h_q // h_kv, h_kv)

for i in range(num_layers):
    ...
    o_i, lse_i = flash_mla_with_kvcache(
        q_i, kvcache_i, block_table, cache_seqlens, dv,
        tile_scheduler_metadata, num_splits, causal=True,
    )
    ...

FlashMLA开源后获得广泛好评,甚至有网友调侃“第五天会是AGI”。

image.pngimage.pngimage.png

这无疑是真正的开源精神的体现!

今天关于《DeepSeek开源FlashMLA,推理加速惊人》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>