Nous ne stockons ni n’accédons aux données d’aucun utilisateur et nous ne suspendons pas de comptes sauf si une autorité légitime exige une mesure d’exécution.
NVFP4 Quantifié - IA d'entreprise rentable

ShannonLite 1.6

IA d'entreprise rentable propulsée parMistral Large 3avec675B paramètres totauxet41B paramètres actifsgrâce à une architecture de Mixture-of-Experts granulaire. Post-entraîné sur2 500 sorties de Claude Opus 4.5pour une exécution exceptionnelle des instructions.Quantification NVFP4permet un déploiement sur un seul nœud surH100 ou A100.

675B
Paramètres Totaux
41B
Paramètres Actifs
NVFP4
Quantification
256K
Contexte
2.5B
Encodeur Vision
Édition Lite
Shannon Lite 1.6
v1.6.0-lite-nvfp4
Spécifications Techniques :
Modèle de Base Mistral Large 3
Architecture MoE Granulaire
Paramètres Totaux 675B
Paramètres Actifs 41B
Quantification NVFP4
Post-entraînement Claude Opus 4.5
Échantillons d'entraînement 2,500

Mistral Large 3 : Mixture-of-Experts Granulaire

Shannon Lite 1.6 est basé sur Mistral Large 3, un modèle multimodal de Mixture-of-Experts granulaire de pointe conçu dès le départ pour la fiabilité, la compréhension de contextes longs et des performances de niveau production. La version post-entraînée pour les instructions est affinée pour les cas d'utilisation de chat, d'agent et basés sur des instructions.

673B

Modèle de Langage

Architecture MoE granulaire avec 39B paramètres actifs par passe avant

2.5B

Encodeur Vision

Encodeur multimodal intégré pour l'analyse d'images et la compréhension visuelle

256K

Fenêtre de Contexte

Contexte étendu pour une compréhension complète des documents et le RAG

12+

Langues

Anglais, Français, Espagnol, Allemand, Chinois, Japonais, Coréen, Arabe, et plus encore

Déploiement d'entreprise rentable

Shannon Lite 1.6 exploite la technologie de quantification NVFP4 (virgule flottante 4 bits) de NVIDIA pour réduire considérablement les besoins en mémoire tout en préservant la qualité du modèle. Déployez une IA de pointe sur une infrastructure GPU accessible sans la complexité multi-nœuds.

💰

Coût d'infrastructure réduit

La quantification NVFP4 réduit l'empreinte mémoire d'environ 4x par rapport au BF16, permettant un déploiement sur moins de GPU et réduisant considérablement le TCO pour l'IA d'entreprise.

Déploiement sur un seul nœud

Déployez le modèle complet de 675B paramètres sur un seul nœud de H100 ou A100. Pas d'orchestration multi-nœuds complexe, surcharge réseau réduite, opérations simplifiées.

Qualité du modèle préservée

Les techniques de quantification avancées maintiennent les performances du modèle pour le raisonnement, l'exécution des instructions et les tâches multimodales avec une dégradation minimale de la qualité.

Distillation des connaissances de Claude Opus 4.5

Shannon Lite 1.6 a été méticuleusement post-entraîné en utilisant 2 500 sorties soigneusement sélectionnées deClaude Opus 4.5, le modèle le plus performant d'Anthropic. Cette approche de distillation des connaissances capture des schémas de raisonnement avancés, une interprétation nuancée des instructions et une qualité de réponse supérieure.

Fondation Mistral Large 3 Instruct 2512

Basé sur le modèle Instruct de pointe de Mistral (version 2512) en précision BF16. Cette fondation offre des capacités de pointe conçues pour les assistants de niveau production, les systèmes augmentés par récupération, les charges de travail scientifiques et les flux de travail d'entreprise complexes.

Base BF16 Affiné pour les instructions Prêt pour la production Licence Apache 2.0

Distillation des sorties de Claude Opus 4.5

Post-entraîné sur 2 500 sorties de haute qualité de Claude Opus 4.5, capturant les capacités de raisonnement les plus avancées d'Anthropic. L'ensemble de données sélectionné se concentre sur l'exécution d'instructions complexes, la compréhension nuancée, et la génération de réponses de haute qualité dans divers domaines.

2 500 Échantillons Ensemble de données sélectionné Accent sur la qualité Domaines diversifiés

Processus de quantification NVFP4

Quantification NVIDIA FP4 avancée appliquée après l'entraînement pour réduire l'empreinte mémoire tout en maintenant la qualité du modèle. Calibrée spécifiquement pour les poids post-entraînés afin de préserver le transfert de connaissances et les capacités de suivi des instructions de Claude Opus 4.5.

NVFP4 Précision 4 bits Calibré Qualité Préservée

Évaluation et Validation

Évaluation complète sur des benchmarks de suivi d'instructions, des tâches de raisonnement et des scénarios d'entreprise réels. Validé pour un comportement inter-domaines cohérent, des sorties stables et des performances fiables dans les environnements de production.

Évalué par benchmark Inter-domaines Validé en Production Sorties Stables

Options de Déploiement GPU Flexibles

Shannon Lite 1.6 avec quantification NVFP4 permet un déploiement rentable sur des configurations GPU NVIDIA standard de l'industrie, rendant l'IA de pointe accessible pour les déploiements d'entreprise sans nécessiter de clusters multi-nœuds coûteux.

NVIDIA H100 SXM

Performances optimales avec l'architecture Hopper et la mémoire HBM3

Nœud Unique (8x H100)
Précision NVFP4
80 Go HBM3 par GPU
Débit Maximal

NVIDIA A100 SXM

Fiabilité prouvée sur les GPU à architecture Ampere

Nœud Unique (8x A100)
Précision NVFP4
80 Go HBM2e par GPU
Rentable

Shannon Cloud

Déploiement entièrement géré sans infrastructure

Accès Instantané
Mise à l'échelle automatique
Prêt pour l'API REST
SLA de 99,9 %

Fonctionnalités d'IA Prêtes pour l'Entreprise

Shannon Lite 1.6 offre des capacités de pointe héritées de Mistral Large 3 et améliorées par le post-entraînement de Claude Opus 4.5, optimisé pour les charges de travail de production dans divers scénarios d'entreprise.

Vision Multimodale

L'encodeur de vision intégré de 2,5 milliards de paramètres permet l'analyse d'images, la réponse visuelle aux questions et la compréhension de documents avec des images.

Excellence Multilingue

Support natif pour plus de 12 langues, dont l'anglais, le français, l'espagnol, l'allemand, l'italien, le portugais, le néerlandais, le chinois, le japonais, le coréen et l'arabe.

🤖

Capacités Agentiques

Fonctionnalités agentiques de premier ordre avec appel de fonction natif et sortie JSON structurée pour l'utilisation autonome d'outils et l'automatisation des flux de travail.

Adhérence aux Invites Système

Forte adhérence et support des invites système, permettant un contrôle comportemental précis et un maintien cohérent de la persona.

Contexte Long de 256K

Fenêtre de contexte étendue pour une compréhension complète des documents, des conversations prolongées et la génération augmentée par récupération (RAG).

🔧

Appel de Fonction Natif

Support intégré de l'appel de fonction avec sortie JSON fiable pour une intégration transparente avec des outils externes, des API et des services.

Optimisé pour les Charges de Travail de Production

Avec des performances puissantes sur des contextes longs, un comportement inter-domaines stable et cohérent, Shannon Lite 1.6 excelle dans divers scénarios d'entreprise et de recherche.

📄

Compréhension de Documents Longs

Traiter et analyser des documents étendus, des contrats, des rapports et des articles de recherche avec la fenêtre de contexte de 256K

🤖

Assistants IA de Production

Alimenter des assistants IA quotidiens avec des réponses fiables et cohérentes et un fort suivi des instructions

🔧

Flux de Travail Agentiques

Utilisation d'outils et appel de fonctions de pointe pour l'exécution autonome de tâches et l'automatisation des flux de travail

🏢

Travail de Connaissance en Entreprise

Flux de travail d'entreprise complexes nécessitant des capacités d'IA de pointe avec des sorties cohérentes et fiables

💻

Assistant de Codage Général

Génération de code, débogage, documentation et assistance au développement logiciel dans plusieurs langues

Recherche Scientifique

Assistance à la recherche, revue de littérature, traitement des charges de travail scientifiques et génération d'hypothèses

Génération Augmentée par Récupération

Performances optimales pour les systèmes RAG avec intégration de contexte fiable et synthèse de récupération précise

🌍

Applications Multilingues

Applications d'entreprise mondiales nécessitant une qualité constante sur plus de 12 langues prises en charge

Shannon Lite vs Shannon Pro

Choisissez le bon modèle Shannon pour vos besoins. Shannon Lite offre un déploiement d'entreprise rentable, tandis que Shannon Pro offre une capacité maximale avec un raisonnement avancé en chaîne de pensée et un support des compétences.

Caractéristique Shannon Lite 1.6 Shannon Pro 1.6
Modèle de Base Mistral Large 3 (675B) Mistral Large 3 (675B)
Paramètres Actifs 41B (MoE Granulaire) 41B (MoE Granulaire)
Précision NVFP4 (4 bits) BF16 complet (16 bits)
Données post-entraînement 2 500 sorties de Claude Opus 4.5 Traces de pensée KIMI K2
Méthode de post-entraînement Affinement supervisé GRPO (Optimisation de la politique relative de groupe)
Mode de raisonnement Standard Traces de chaîne de pensée
Support des compétences - Pro seulementCompétences natives
Déploiement H100/A100 (Nœud unique) B200/H200 (FP8)
Idéal pour IA d'entreprise rentable Capacité maximale + Raisonnement

Besoin de raisonnement et de compétences avancés ?

Shannon Pro 1.6 intègre les traces de pensée KIMI K2 avec l'entraînement GRPO pour un raisonnement transparent en chaîne de pensée, ainsi qu'un support natif des compétences pour des flux de travail d'IA personnalisés.

Explorer Shannon Pro

Découvrir Shannon Lite 1.6

Capacités d'IA de pointe avec une quantification NVFP4 rentable. Déployez sur une infrastructure H100 ou A100 pour des performances de niveau entreprise à un coût accessible.

Tous les liens de recherche