Vi verken lagrer eller har tilgang til brukerdata, og vi suspenderer ikke kontoer med mindre en lovlig myndighet krever en håndhevingshandling.
NVFP4 Kvantisert - Kostnadseffektiv Bedrifts-AI

ShannonLite 1.6

Kostnadseffektiv bedrifts-AI drevet avMistral Large 3med675B totale parametereog41B aktive parameteregjennom granulær Blanding av Eksperter-arkitektur. Ettertrenet på2 500 Claude Opus 4.5-utgangerfor eksepsjonell instruksjonsfølging.NVFP4-kvantiseringmuliggjør enkeltnode-distribusjon påH100s eller A100s.

675B
Totale parametere
41B
Aktive parametere
NVFP4
Kvantisering
256K
Kontekst
2.5B
Synskoder
Lite Utgave
Shannon Lite 1.6
v1.6.0-lite-nvfp4
Tekniske spesifikasjoner:
Grunnmodell Mistral Large 3
Arkitektur Granulær Blanding av Eksperter
Totale parametere 675B
Aktive parametere 41B
Kvantisering NVFP4
Ettertrening Claude Opus 4.5
Treningsprøver 2,500

Mistral Large 3: Granulær Blanding av Eksperter

Shannon Lite 1.6 er bygget på Mistral Large 3, en banebrytende multimodal granulær Blanding av Eksperter-modell designet fra grunnen av for pålitelighet, langkontekstforståelse og ytelse i produksjonskvalitet. Den instruksjons-ettertrente versjonen er finjustert for chat, agentiske og instruksjonsbaserte bruksområder.

673B

Språkmodell

Granulær Blanding av Eksperter-arkitektur med 39B aktive parametere per fremoverpassering

2.5B

Synskoder

Integrert multimodal koder for bildeanalyse og visuell forståelse

256K

Kontekstvindu

Utvidet kontekst for omfattende dokumentforståelse og RAG

12+

Språk

Engelsk, Fransk, Spansk, Tysk, Kinesisk, Japansk, Koreansk, Arabisk, og mer

Kostnadseffektiv bedriftsdistribusjon

Shannon Lite 1.6 utnytter NVIDIAs NVFP4 (4-bits flyttall) kvantiseringsteknologi for å dramatisk redusere minnekrav samtidig som modellkvaliteten bevares. Distribuer banebrytende AI på tilgjengelig GPU-infrastruktur uten flernodekompleksitet.

💰

Redusert infrastrukturkostnad

NVFP4-kvantisering reduserer minnefotavtrykket med omtrent 4x sammenlignet med BF16, noe som muliggjør distribusjon på færre GPUer og dramatisk senker TCO for bedrifts-AI.

Enkeltnode-distribusjon

Distribuer den fulle 675B parameter-modellen på en enkelt node med H100s eller A100s. Ingen kompleks flernode-orkestrering, redusert nettverksoverhead, forenklede operasjoner.

Bevart modellkvalitet

Avanserte kvantiseringsteknikker opprettholder modellens ytelse på tvers av resonnement, instruksjonsfølging og multimodale oppgaver med minimal kvalitetsforringelse.

Claude Opus 4.5 Kunnskapsdestillasjon

Shannon Lite 1.6 har blitt møysommelig ettertrenet ved hjelp av 2 500 nøye kuraterte utganger fraClaude Opus 4.5, Anthropics mest kapable modell. Denne kunnskapsdestillasjonsmetoden fanger opp avanserte resonnementsmønstre, nyansert instruksjonsfortolkning og overlegen svar kvalitet.

Mistral Large 3 Instruct 2512 Grunnlag

Bygget på Mistrals banebrytende Instruct-modell (versjon 2512) i BF16-presisjon. Dette grunnlaget gir banebrytende funksjonalitet konstruert for produksjonsklare assistenter, gjenfinningsforsterkede systemer, vitenskapelige arbeidsmengder og komplekse bedriftsarbeidsflyter.

BF16 Grunnlag Instruksjonsjustert Produksjonsklar Apache 2.0 License

Claude Opus 4.5 Utgangsdestillasjon

Ettertrenet på 2 500 høykvalitetsutganger fra Claude Opus 4.5, som fanger opp Anthropics mest avanserte resonnementsevner. Det kuraterte datasettet fokuserer på kompleks instruksjonsfølging, nyansert forståelse, og høykvalitets svar generering på tvers av ulike domener.

2 500 Prøver Kuraterte datasett Kvalitetsfokus Ulike domener

NVFP4 Kvantiseringsprosess

Avansert NVIDIA FP4-kvantisering brukt etter trening for å redusere minneforbruk samtidig som modellkvaliteten opprettholdes. Kalibrert spesifikt for de ettertrente vektene for å bevare Claude Opus 4.5 kunnskapsoverføring og instruksjonsfølgende evner.

NVFP4 4-bits presisjon Kalibrert Kvalitet bevart

Evaluering og validering

Omfattende evaluering på tvers av instruksjonsfølgende referansepunkter, resonneringsoppgaver og virkelige bedriftsscenarier. Validert for konsistent tverrdomeneatferd, stabile utganger og pålitelig ytelse i produksjonsmiljøer.

Referansemålt Tverrdomene Produksjonsvalidert Stabile utganger

Fleksible GPU-distribusjonsalternativer

Shannon Lite 1.6 med NVFP4-kvantisering muliggjør kostnadseffektiv distribusjon på industristandard NVIDIA GPU-konfigurasjoner, noe som gjør banebrytende AI tilgjengelig for bedriftsdistribusjoner uten å kreve dyre flernodeklynger.

NVIDIA H100 SXM

Optimal ytelse med Hopper-arkitektur og HBM3-minne

Enkelnode (8x H100)
NVFP4-presisjon
80 GB HBM3 per GPU
Maksimal gjennomstrømning

NVIDIA A100 SXM

Bevist pålitelighet på Ampere-arkitektur GPUer

Enkelnode (8x A100)
NVFP4-presisjon
80 GB HBM2e per GPU
Kostnadseffektiv

Shannon Cloud

Fullt administrert distribusjon med null infrastruktur

Øyeblikkelig tilgang
Autoskalering
Klar for REST API
99.9% SLA

Bedriftsklare AI-funksjoner

Shannon Lite 1.6 leverer banebrytende funksjoner arvet fra Mistral Large 3 og forbedret gjennom Claude Opus 4.5 ettertrening, optimalisert for produksjonsarbeidsbelastninger på tvers av ulike bedriftsscenarier.

Multimodal visjon

Integrert 2.5B parameter visjonsenkoder muliggjør bildeanalyse, visuell spørsmålsbesvarelse og dokumentforståelse med bilder.

Flerpråklig fortreffelighet

Innebygd støtte for 12+ språk inkludert engelsk, fransk, spansk, tysk, italiensk, portugisisk, nederlandsk, kinesisk, japansk, koreansk og arabisk.

🤖

Agentiske funksjoner

Klasseledende agentiske funksjoner med innebygd funksjonskalling og strukturert JSON-utdata for autonom verktøybruk og arbeidsflytautomatisering.

Systemprompt-overholdelse

Sterk overholdelse og støtte for systemprompter, noe som muliggjør presis atferdskontroll og konsistent personavedlikehold.

256K Lang kontekst

Utvidet kontekstvindu for omfattende dokumentforståelse, utvidede samtaler og gjenfinningsforsterket generering (RAG).

🔧

Native Function Calling

Innebygd støtte for funksjonskalling med pålitelig JSON-utdata for sømløs integrasjon med eksterne verktøy, APIer og tjenester.

Optimalisert for produksjonsarbeidsbelastninger

Med kraftig langkontekstytelse, stabil og konsistent tverrdomeneatferd, utmerker Shannon Lite 1.6 seg på tvers av ulike bedrifts- og forskningsscenarier.

📄

Forståelse av lange dokumenter

Behandle og analysere omfattende dokumenter, kontrakter, rapporter og forskningsartikler med 256K kontekstvinduet

🤖

Produksjons-AI-assistenter

Drive daglige AI-assistenter med pålitelige, konsistente svar og sterk instruksjonsfølging

🔧

Agentiske arbeidsflyter

Nyskapende verktøybruk og funksjonskalling for autonom oppgaveutførelse og arbeidsflytautomatisering

🏢

Bedriftskunnskapsarbeid

Komplekse bedriftsarbeidsflyter som krever banebrytende AI-funksjoner med konsistente, pålitelige utganger

💻

Generell kodeassistent

Kode generering, feilsøking, dokumentasjon og programvareutviklingsassistanse på tvers av flere språk

Vitenskapelig forskning

Forskningsassistanse, litteraturgjennomgang, vitenskapelig arbeidsbelastningsbehandling og hypotesegenerering

Gjenfinningsforsterket generering

Optimal ytelse for RAG-systemer med pålitelig kontekstintegrasjon og nøyaktig gjenfinningssyntese

🌍

Flerpråklige applikasjoner

Globale bedriftsapplikasjoner som krever konsistent kvalitet på tvers av 12+ støttede språk

Shannon Lite vs Shannon Pro

Velg riktig Shannon-modell for dine behov. Shannon Lite tilbyr kostnadseffektiv bedriftsdistribusjon, mens Shannon Pro gir maksimal kapasitet med avansert tankekjede-resonnement og ferdighetsstøtte.

Funksjon Shannon Lite 1.6 Shannon Pro 1.6
Grunnmodell Mistral Large 3 (675B) Mistral Large 3 (675B)
Aktive parametere 41B (Granulær MoE) 41B (Granulær MoE)
Presisjon NVFP4 (4-bit) Full BF16 (16-bit)
Ettertreningsdata 2 500 Claude Opus 4.5-utganger KIMI K2 Tankespor
Ettertreningsmetode Veiledet finjustering GRPO (Group Relative Policy Optimization)
Resonneringsmodus Standard Tankekjedespor
Ferdighetsstøtte - Kun ProInnebygde ferdigheter
Distribusjon H100/A100 (Enkeltnode) B200/H200 (FP8)
Best for Kostnadseffektiv bedrifts-AI Maksimal kapasitet + resonnering

Trenger du avansert resonnering og ferdigheter?

Shannon Pro 1.6 har KIMI K2 Tankespor med GRPO-trening for transparent tankekjedesresonnering, pluss innebygd ferdighetsstøtte for tilpassede AI-arbeidsflyter.

Utforsk Shannon Pro

Opplev Shannon Lite 1.6

Grensesprengende AI-kapasiteter med kostnadseffektiv NVFP4-kvantisering. Distribuer på H100- eller A100-infrastruktur for ytelse i bedriftsklasse til en tilgjengelig pris.

Alle forskningslenker