登录
首页 >  科技周边 >  人工智能

Minimax支持多长上下文窗口?

时间:2026-03-21 21:09:42 493浏览 收藏

MiniMax旗下不同模型在上下文窗口支持上展现出惊人差异:最新推理模型MiniMax-01突破性支持高达400万token的超长文本上下文,远超行业常规水平,适用于百万行代码分析与整本技术文档理解;轻量版MiniMax-M1则专注高效推理,稳定支持104.8万token;而多模态模型MiniMax-VL-01更以5120亿图文联合token为标尺,专为高分辨率图像与长文本协同理解而生——但需注意,它强制要求图像输入,纯文本请求将被拒绝。无论你是处理海量日志、构建智能知识库,还是开发跨模态应用,MiniMax正重新定义大模型的“记忆边界”。

Minimax支持多少Context窗口长度?

如果您查询 MiniMax 模型所支持的上下文窗口长度,需注意其不同版本存在显著差异。当前最新公开模型 MiniMax-01 系列在推理阶段明确支持高达 400 万 token 的上下文长度,这一数值远超主流闭源与开源模型的常规配置。

一、MiniMax-01 推理上下文能力

MiniMax-01 系列采用全新线性注意力机制,在推理阶段实现上下文长度外推至 400 万 token,该能力已通过官方实测验证,适用于超长文档解析、多轮复杂推理及百万级代码库联合分析等场景。

1、查阅 MiniMax 官方 GitHub 仓库中 mini-max-01-inference 分支的 config.json 文件,确认 max_position_embeddings 字段值为 4194304(即 4096 × 1024)。

2、运行官方提供的 benchmark_cli.py 脚本,传入 --max-seq-len=4194304 参数,可成功加载并执行单次推理。

3、调用 REST API 时,在 request body 中设置 "max_context_length": 4194304,服务端返回 status: 200 且无 truncation warning。

二、MiniMax-M1 的上下文规格

MiniMax-M1 是面向高效推理优化的轻量级变体,其设计目标是在保持长上下文能力的同时大幅降低计算开销,训练阶段上下文长度固定为 100 万 token,但不支持推理时外推至 400 万。

1、检查模型卡页(model card)中 “Inference Context Support” 条目,明确标注为 up to 1,048,576 tokens(即 2^20)。

2、使用 huggingface-transformers 加载该模型后,调用 model.config.max_position_embeddings,返回值恒为 1048576

3、若强行将 input_ids 长度设为超过该值,模型前向传播将触发 RuntimeError: position_ids exceed max_position_embeddings。

三、MiniMax-VL-01 的图文上下文处理能力

MiniMax-VL-01 是视觉-语言多模态模型,其上下文窗口以“图文 Token 总和”计量,支持最高 5120 亿图文 Token 的联合建模,但该数值非传统文本 token 计数方式,而是基于视觉 patch 编码与文本 token 混合嵌入后的等效序列长度。

1、参考 VL-01 技术报告第 4.2 节,其 context budget 表述为 512B multimodal tokens,单位为 billion visual-text joint tokens。

2、在图像输入为 1024×1024 分辨率时,单图生成约 16384 个视觉 token;叠加 8192 字符文本后,总序列长度约为 24576 tokens,远低于文本模型的 400 万上限。

3、该模型未开放通用文本长上下文接口,所有请求必须包含至少一个 image_url 或 base64-encoded image 字段,否则返回 HTTP 400 错误。

本篇关于《Minimax支持多长上下文窗口?》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于科技周边的相关知识,请关注golang学习网公众号!

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>