当社はユーザーデータを保持もアクセスもしません。また、正当な権限を持つ機関から執行措置の要求がない限り、アカウントを停止しません。
NVFP4 量子化済み - 費用対効果の高いエンタープライズAI

Shannonライト 1.6

費用対効果の高いエンタープライズAIを搭載Mistral Large 3675Bの総パラメータおよび41Bのアクティブパラメータ粒状のMixture-of-Expertsアーキテクチャを通じて。 後期学習済み:2,500のClaude Opus 4.5出力優れた指示追従性のため。NVFP4量子化により、単一ノードでのデプロイが可能H100sまたはA100s.

675B
総パラメータ
41B
アクティブパラメータ
NVFP4
量子化
256K
コンテキスト
2.5B
ビジョンエンコーダ
ライトエディション
Shannon Lite 1.6
v1.6.0-lite-nvfp4
技術仕様:
ベースモデル Mistral Large 3
アーキテクチャ 粒状MoE
総パラメータ 675B
アクティブパラメータ 41B
量子化 NVFP4
後期学習 Claude Opus 4.5
学習サンプル 2,500

Mistral Large 3: 粒状Mixture-of-Experts

Shannon Lite 1.6は、信頼性、長文コンテキスト理解、および本番環境レベルのパフォーマンスのためにゼロから設計された、最先端のマルチモーダル粒状Mixture-of-ExpertsモデルであるMistral Large 3をベースに構築されています。 指示後期学習済みバージョンは、チャット、エージェント、および指示ベースのユースケース向けにファインチューニングされています。

673B

言語モデル

フォワードパスあたり39Bのアクティブパラメータを持つ粒状MoEアーキテクチャ

2.5B

ビジョンエンコーダ

画像分析と視覚理解のための統合マルチモーダルエンコーダ

256K

コンテキストウィンドウ

包括的なドキュメント理解とRAGのための拡張コンテキスト

12+

言語

英語、フランス語、スペイン語、ドイツ語、中国語、日本語、韓国語、アラビア語など

費用対効果の高いエンタープライズデプロイメント

Shannon Lite 1.6は、NVIDIAのNVFP4(4ビット浮動小数点)量子化技術を活用し、モデル品質を維持しながらメモリ要件を劇的に削減します。マルチノードの複雑さなしに、アクセス可能なGPUインフラストラクチャにフロンティアクラスのAIをデプロイできます。

💰

インフラコストの削減

NVFP4量子化は、BF16と比較してメモリフットプリントを約4倍削減し、より少ないGPUでのデプロイを可能にし、エンタープライズAIのTCOを劇的に低減します。

単一ノードデプロイメント

H100sまたはA100sの単一ノードに、完全な675Bパラメータモデルをデプロイします。複雑なマルチノードオーケストレーションは不要で、ネットワークオーバーヘッドが削減され、運用が簡素化されます。

モデル品質の維持

高度な量子化技術により、推論、指示追従、マルチモーダルタスク全体でモデルのパフォーマンスを維持し、品質劣化を最小限に抑えます。

Claude Opus 4.5 知識蒸留

Shannon Lite 1.6は、Claude Opus 4.5、Anthropicの最も高性能なモデルから厳選された2,500の出力を使用して、綿密に後期学習されています。この知識蒸留アプローチは、高度な推論パターン、微妙な指示解釈、および優れた応答品質を捉えます。

Mistral Large 3 Instruct 2512 基盤

Mistralの最先端のInstructモデル(バージョン2512)をBF16精度で構築。この基盤は、本番環境レベルのアシスタント、検索拡張システム、科学的ワークロード、および複雑なエンタープライズワークフロー向けに設計されたフロンティアレベルの機能を提供します。

BF16ベース 指示チューニング済み 本番環境対応 Apache 2.0 License

Claude Opus 4.5 出力蒸留

Claude Opus 4.5からの2,500の高品質出力で後期学習され、Anthropicの最も高度な推論能力を捉えています。厳選されたデータセットは、複雑な指示追従、微妙な理解、および多様なドメインにわたる高品質な応答生成に焦点を当てています。

2,500サンプル 厳選されたデータセット 品質重視 多様なドメイン

NVFP4 量子化プロセス

モデル品質を維持しつつメモリフットプリントを削減するために、トレーニング後に高度なNVIDIA FP4量子化が適用されます。Claude Opus 4.5の知識転送と指示追従能力を保持するために、トレーニング後の重みに対して特別に調整されています。

NVFP4 4ビット精度 調整済み 品質保持

評価と検証

指示追従ベンチマーク、推論タスク、および実際のエンタープライズシナリオ全体にわたる包括的な評価。一貫したクロスドメイン動作、安定した出力、および本番環境での信頼性の高いパフォーマンスが検証されています。

ベンチマーク済み クロスドメイン 本番環境で検証済み 安定した出力

柔軟なGPUデプロイメントオプション

NVFP4量子化を施したShannon Lite 1.6は、業界標準のNVIDIA GPU構成での費用対効果の高いデプロイメントを可能にし、高価なマルチノードクラスターを必要とせずに、フロンティアAIをエンタープライズデプロイメントで利用可能にします。

NVIDIA H100 SXM

HopperアーキテクチャとHBM3メモリによる最適なパフォーマンス

シングルノード (8x H100)
NVFP4精度
GPUあたり80GB HBM3
最大スループット

NVIDIA A100 SXM

AmpereアーキテクチャGPUでの実証された信頼性

シングルノード (8x A100)
NVFP4精度
GPUあたり80GB HBM2e
費用対効果が高い

Shannon Cloud

インフラストラクチャ不要のフルマネージドデプロイメント

即時アクセス
自動スケーリング
REST API対応
99.9% SLA

エンタープライズ対応AI機能

Shannon Lite 1.6は、Mistral Large 3から継承され、Claude Opus 4.5のトレーニング後強化によって向上したフロンティア機能を提供し、多様なエンタープライズシナリオにおける本番ワークロード向けに最適化されています。

マルチモーダルビジョン

統合された25億パラメータのビジョンエンコーダは、画像分析、視覚的質問応答、および画像を用いたドキュメント理解を可能にします。

多言語対応の卓越性

英語、フランス語、スペイン語、ドイツ語、イタリア語、ポルトガル語、オランダ語、中国語、日本語、韓国語、アラビア語を含む12以上の言語にネイティブ対応しています。

🤖

エージェント機能

ネイティブ関数呼び出しと構造化されたJSON出力を備えたクラス最高のエージェント機能により、自律的なツール使用とワークフロー自動化を実現します。

システムプロンプトへの準拠

システムプロンプトへの強力な準拠とサポートにより、正確な行動制御と一貫したペルソナ維持を可能にします。

256K長コンテキスト

包括的なドキュメント理解、長時間の会話、および検索拡張生成 (RAG) のための拡張コンテキストウィンドウ。

🔧

ネイティブ関数呼び出し

外部ツール、API、およびサービスとのシームレスな統合のための、信頼性の高いJSON出力を備えた組み込み関数呼び出しサポート。

本番ワークロード向けに最適化

強力な長コンテキスト性能、安定した一貫性のあるクロスドメイン動作により、Shannon Lite 1.6は多様なエンタープライズおよび研究シナリオで優れた能力を発揮します。

📄

長文ドキュメント理解

256Kコンテキストウィンドウで、広範なドキュメント、契約書、レポート、研究論文を処理および分析します

🤖

本番AIアシスタント

信頼性が高く、一貫性のある応答と強力な指示追従能力で、日常的に使用するAIアシスタントを強化します

🔧

エージェントワークフロー

自律的なタスク実行とワークフロー自動化のための、最先端のツール使用と関数呼び出し

🏢

エンタープライズ知識作業

一貫性のある信頼性の高い出力を伴うフロンティアAI機能を必要とする複雑なエンタープライズワークフロー

💻

汎用コーディングアシスタント

複数の言語にわたるコード生成、デバッグ、ドキュメント作成、およびソフトウェア開発支援

科学研究

研究支援、文献レビュー、科学的ワークロード処理、および仮説生成

検索拡張生成

信頼性の高いコンテキスト統合と正確な検索合成によるRAGシステム向けの最適なパフォーマンス

🌍

多言語アプリケーション

12以上のサポート言語で一貫した品質を必要とするグローバルエンタープライズアプリケーション

Shannon Lite vs Shannon Pro

ニーズに合ったShannonモデルを選択してください。Shannon Liteは費用対効果の高いエンタープライズデプロイメントを提供し、Shannon Proは高度な思考連鎖推論とスキルサポートにより最大の機能を提供します。

機能 Shannon Lite 1.6 Shannon Pro 1.6
ベースモデル Mistral Large 3 (675B) Mistral Large 3 (675B)
アクティブパラメータ 41B (粒状MoE) 41B (粒状MoE)
精度 NVFP4 (4ビット) フルBF16 (16ビット)
後学習データ 2,500件のClaude Opus 4.5出力 KIMI K2思考トレース
後学習方法 教師ありファインチューニング GRPO (グループ相対ポリシー最適化)
推論モード 標準 思考連鎖トレース
スキルサポート - プロ版のみネイティブスキル
デプロイ H100/A100 (シングルノード) B200/H200 (FP8)
最適用途 費用対効果の高いエンタープライズAI 最大機能 + 推論

高度な推論とスキルが必要ですか?

Shannon Pro 1.6は、KIMI K2思考トレースとGRPOトレーニングを特徴とし、透明性のある思考連鎖推論を実現します。さらに、カスタムAIワークフロー向けのネイティブスキルサポートも提供します。

Shannon Proを探索する

Shannon Lite 1.6を体験する

費用対効果の高いNVFP4量子化によるフロンティアAI機能。H100またはA100インフラストラクチャにデプロイすることで、手頃なコストでエンタープライズグレードのパフォーマンスを実現します。

すべての研究リンク