我们不持有也不访问任何用户数据,除非有合法机构要求执行措施,否则我们不会暂停账户。
NVFP4 量化 - 经济高效的企业级 AI

Shannon精简版 1.6

由...驱动的经济高效的企业级 AIMistral Large 3具有675B 总参数41B 活跃参数通过细粒度专家混合架构。 后训练于2,500 个 Claude Opus 4.5 输出以实现卓越的指令遵循能力。NVFP4 量化支持在...上进行单节点部署H100 或 A100.

675B
总参数
41B
活跃参数
NVFP4
量化
256K
上下文
2.5B
视觉编码器
精简版
Shannon Lite 1.6
v1.6.0-lite-nvfp4
技术规格:
基础模型 Mistral Large 3
架构 细粒度 MoE
总参数 675B
活跃参数 41B
量化 NVFP4
后训练 Claude Opus 4.5
训练样本 2,500

Mistral Large 3:细粒度专家混合

Shannon Lite 1.6 基于 Mistral Large 3 构建,这是一款最先进的多模态细粒度专家混合模型, 从头开始设计,旨在提供可靠性、长上下文理解和生产级性能。 经过指令后训练的版本针对聊天、代理和基于指令的用例进行了微调。

673B

语言模型

细粒度 MoE 架构,每次前向传播具有 39B 活跃参数

2.5B

视觉编码器

集成的多模态编码器,用于图像分析和视觉理解

256K

上下文窗口

扩展上下文,用于全面的文档理解和 RAG

12+

语言

英语、法语、西班牙语、德语、中文、日语、韩语、阿拉伯语等

经济高效的企业级部署

Shannon Lite 1.6 利用 NVIDIA 的 NVFP4(4 位浮点)量化技术, 以显著降低内存需求,同时保持模型质量。在可访问的 GPU 基础设施上部署前沿级 AI,无需多节点复杂性。

💰

降低基础设施成本

与 BF16 相比,NVFP4 量化将内存占用减少约 4 倍,从而支持在更少的 GPU 上部署,并显著降低企业级 AI 的总拥有成本 (TCO)。

单节点部署

在单个 H100 或 A100 节点上部署完整的 675B 参数模型。无需复杂的多节点编排,减少网络开销,简化操作。

保持模型质量

先进的量化技术在推理、指令遵循和多模态任务中保持模型性能,且质量下降最小。

Claude Opus 4.5 知识蒸馏

Shannon Lite 1.6 经过精心后训练,使用了来自 2,500 个精心策划的输出Claude Opus 4.5,Anthropic 最强大的模型。这种知识蒸馏方法 捕捉了高级推理模式、细致的指令解释和卓越的响应质量。

Mistral Large 3 Instruct 2512 基础

基于 Mistral 最先进的 Instruct 模型(版本 2512)构建,采用 BF16 精度。这一基础提供了 前沿级能力,专为生产级助手、检索增强系统、科学工作负载和复杂的企业工作流程而设计。

BF16 基础 指令微调 生产就绪 Apache 2.0 许可证

Claude Opus 4.5 输出蒸馏

基于 Claude Opus 4.5 的 2,500 个高质量输出进行后训练,捕捉了 Anthropic 最先进的 推理能力。精选数据集侧重于复杂的指令遵循、细致的理解以及跨不同领域的高质量响应生成。

2,500 个样本 精选数据集 注重质量 多样化领域

NVFP4 量化过程

先进的 NVIDIA FP4 量化在训练后应用,以减少内存占用,同时保持模型质量。专门针对训练后的权重进行校准,以保留 Claude Opus 4.5 的知识转移和指令遵循能力。

NVFP4 4位精度 已校准 质量保持

评估与验证

在指令遵循基准、推理任务和真实世界企业场景中进行全面评估。验证了跨领域行为的一致性、输出的稳定性以及在生产环境中的可靠性能。

已基准测试 跨领域 生产验证 稳定输出

灵活的 GPU 部署选项

采用 NVFP4 量化的 Shannon Lite 1.6 可以在行业标准的 NVIDIA GPU 配置上实现经济高效的部署,使前沿 AI 能够用于企业部署,而无需昂贵的多节点集群。

NVIDIA H100 SXM

Hopper 架构和 HBM3 内存实现最佳性能

单节点 (8x H100)
NVFP4 精度
每个 GPU 80GB HBM3
最大吞吐量

NVIDIA A100 SXM

在 Ampere 架构 GPU 上久经考验的可靠性

单节点 (8x A100)
NVFP4 精度
每个 GPU 80GB HBM2e
经济高效

Shannon Cloud

零基础设施的完全托管部署

即时访问
自动扩缩
支持 REST API
99.9% 服务等级协议

企业级 AI 功能

Shannon Lite 1.6 提供了继承自 Mistral Large 3 并通过 Claude Opus 4.5 训练后增强的前沿能力,针对各种企业场景的生产工作负载进行了优化。

多模态视觉

集成的 2.5B 参数视觉编码器支持图像分析、视觉问答和带图像的文档理解。

多语言卓越

原生支持 12+ 种语言,包括英语、法语、西班牙语、德语、意大利语、葡萄牙语、荷兰语、中文、日语、韩语和阿拉伯语。

🤖

代理能力

一流的代理功能,具有原生函数调用和结构化 JSON 输出,用于自主工具使用和工作流自动化。

系统提示遵循

对系统提示的强大遵循和支持,实现精确的行为控制和一致的角色维护。

256K 长上下文

扩展的上下文窗口,用于全面的文档理解、扩展对话和检索增强生成 (RAG)。

🔧

原生函数调用

内置函数调用支持,具有可靠的 JSON 输出,可与外部工具、API 和服务无缝集成。

针对生产工作负载优化

凭借强大的长上下文性能、稳定一致的跨领域行为,Shannon Lite 1.6 在各种企业和研究场景中表现出色。

📄

长文档理解

利用 256K 上下文窗口处理和分析大量文档、合同、报告和研究论文

🤖

生产 AI 助手

为日常使用的 AI 助手提供可靠、一致的响应和强大的指令遵循能力

🔧

代理工作流

最先进的工具使用和函数调用,用于自主任务执行和工作流自动化

🏢

企业知识工作

需要前沿 AI 能力并具有一致、可靠输出的复杂企业工作流

💻

通用编码助手

跨多种语言的代码生成、调试、文档编写和软件开发协助

科学研究

研究协助、文献综述、科学工作负载处理和假设生成

检索增强生成

RAG 系统实现最佳性能,具有可靠的上下文集成和准确的检索合成

🌍

多语言应用

需要跨 12+ 种支持语言保持一致质量的全球企业应用

Shannon Lite 对比 Shannon Pro

选择适合您需求的 Shannon 模型。Shannon Lite 提供经济高效的企业部署,而 Shannon Pro 则通过先进的思维链推理和技能支持提供最大能力。

功能 Shannon Lite 1.6 Shannon Pro 1.6
基础模型 Mistral Large 3 (675B) Mistral Large 3 (675B)
活跃参数 41B (粒度 MoE) 41B (粒度 MoE)
精度 NVFP4 (4位) 完整BF16 (16位)
后训练数据 2,500个 Claude Opus 4.5 输出 KIMI K2 思维轨迹
后训练方法 监督式微调 GRPO (组相对策略优化)
推理模式 标准 思维链轨迹
技能支持 - 仅限专业版原生技能
部署 H100/A100 (单节点) B200/H200 (FP8)
最适合 高性价比企业级AI 最大能力 + 推理

需要高级推理和技能吗?

Shannon Pro 1.6 采用 KIMI K2 思维轨迹和 GRPO 训练,实现透明的思维链推理,并支持原生技能以实现自定义AI工作流。

探索 Shannon Pro

体验 Shannon Lite 1.6

前沿AI能力,采用高性价比NVFP4量化。部署在H100或A100基础设施上,以可承受的成本实现企业级性能。

所有研究链接