Shannon라이트 1.6
Mistral Large 3로 구동되는 비용 효율적인 엔터프라이즈 AIMistral Large 3~와 함께675B 총 매개변수및41B 활성 매개변수세분화된 전문가 혼합(MoE) 아키텍처를 통해. 다음으로 후속 훈련됨2,500개의 Claude Opus 4.5 출력탁월한 지시 따르기를 위해.NVFP4 양자화~에서 단일 노드 배포를 가능하게 합니다H100s 또는 A100s.
Mistral Large 3: 세분화된 전문가 혼합
Shannon Lite 1.6은 Mistral Large 3를 기반으로 구축된 최첨단 멀티모달 세분화된 전문가 혼합(MoE) 모델로, 신뢰성, 긴 컨텍스트 이해 및 프로덕션 수준 성능을 위해 처음부터 설계되었습니다. 지시 후속 훈련 버전은 채팅, 에이전트 및 지시 기반 사용 사례에 맞게 미세 조정되었습니다.
언어 모델
순방향 패스당 39B 활성 매개변수가 포함된 세분화된 MoE 아키텍처
비전 인코더
이미지 분석 및 시각적 이해를 위한 통합 멀티모달 인코더
컨텍스트 창
포괄적인 문서 이해 및 RAG를 위한 확장된 컨텍스트
언어
영어, 프랑스어, 스페인어, 독일어, 중국어, 일본어, 한국어, 아랍어 등
비용 효율적인 엔터프라이즈 배포
Shannon Lite 1.6은 NVIDIA의 NVFP4 (4비트 부동 소수점) 양자화 기술을 활용하여 모델 품질을 유지하면서 메모리 요구 사항을 획기적으로 줄입니다. 다중 노드 복잡성 없이 접근 가능한 GPU 인프라에 최첨단 AI를 배포하세요.
인프라 비용 절감
NVFP4 양자화는 BF16에 비해 메모리 사용량을 약 4배 줄여, 더 적은 GPU에 배포하고 엔터프라이즈 AI의 총 소유 비용(TCO)을 획기적으로 낮춥니다.
단일 노드 배포
H100s 또는 A100s의 단일 노드에 전체 675B 매개변수 모델을 배포하세요. 복잡한 다중 노드 오케스트레이션이 필요 없으며, 네트워킹 오버헤드가 줄어들고, 운영이 간소화됩니다.
모델 품질 유지
고급 양자화 기술은 추론, 지시 따르기 및 멀티모달 작업 전반에 걸쳐 최소한의 품질 저하로 모델 성능을 유지합니다.
Claude Opus 4.5 지식 증류
Shannon Lite 1.6은 다음에서 신중하게 선별된 2,500개의 출력을 사용하여 세심하게 후속 훈련되었습니다.Claude Opus 4.5, Anthropic의 가장 유능한 모델입니다. 이 지식 증류 접근 방식은 고급 추론 패턴, 미묘한 지시 해석 및 우수한 응답 품질을 포착합니다.
Mistral Large 3 Instruct 2512 기반
BF16 정밀도의 Mistral 최첨단 Instruct 모델(버전 2512)을 기반으로 구축되었습니다. 이 기반은 프로덕션 수준의 비서, 검색 증강 시스템, 과학적 워크로드 및 복잡한 엔터프라이즈 워크플로우를 위해 설계된 최첨단 기능을 제공합니다.
Claude Opus 4.5 출력 증류
Claude Opus 4.5의 2,500개 고품질 출력으로 후속 훈련되어 Anthropic의 가장 진보된 추론 능력을 포착합니다. 선별된 데이터셋은 복잡한 지시 따르기, 미묘한 이해, 및 다양한 도메인에 걸친 고품질 응답 생성에 중점을 둡니다.
NVFP4 양자화 프로세스
고급 NVIDIA FP4 양자화는 모델 품질을 유지하면서 메모리 사용량을 줄이기 위해 훈련 후 적용됩니다. Claude Opus 4.5의 지식 전달 및 지시 따르기 기능을 보존하기 위해 훈련 후 가중치에 특별히 보정되었습니다.
평가 및 검증
지시 따르기 벤치마크, 추론 작업 및 실제 엔터프라이즈 시나리오 전반에 걸친 포괄적인 평가. 일관된 교차 도메인 동작, 안정적인 출력 및 프로덕션 환경에서의 신뢰할 수 있는 성능에 대해 검증되었습니다.
유연한 GPU 배포 옵션
NVFP4 양자화가 적용된 Shannon Lite 1.6은 업계 표준 NVIDIA GPU 구성에 비용 효율적인 배포를 가능하게 하여, 값비싼 다중 노드 클러스터 없이도 엔터프라이즈 배포를 위한 최첨단 AI에 접근할 수 있도록 합니다.
NVIDIA H100 SXM
Hopper 아키텍처 및 HBM3 메모리로 최적의 성능
NVIDIA A100 SXM
Ampere 아키텍처 GPU에서 입증된 신뢰성
Shannon Cloud
인프라 없이 완전 관리형 배포
엔터프라이즈 준비 AI 기능
Shannon Lite 1.6은 Mistral Large 3에서 계승되고 Claude Opus 4.5 훈련 후 강화를 통해 다양한 엔터프라이즈 시나리오의 프로덕션 워크로드에 최적화된 최첨단 기능을 제공합니다.
멀티모달 비전
통합된 25억 매개변수 비전 인코더는 이미지 분석, 시각적 질문 답변 및 이미지 기반 문서 이해를 가능하게 합니다.
다국어 우수성
영어, 프랑스어, 스페인어, 독일어, 이탈리아어, 포르투갈어, 네덜란드어, 중국어, 일본어, 한국어, 아랍어를 포함한 12개 이상의 언어에 대한 기본 지원.
에이전트 기능
자율적인 도구 사용 및 워크플로 자동화를 위한 기본 함수 호출 및 구조화된 JSON 출력을 갖춘 동급 최고의 에이전트 기능.
시스템 프롬프트 준수
시스템 프롬프트에 대한 강력한 준수 및 지원으로, 정밀한 행동 제어 및 일관된 페르소나 유지를 가능하게 합니다.
256K 긴 컨텍스트
포괄적인 문서 이해, 확장된 대화 및 검색 증강 생성(RAG)을 위한 확장된 컨텍스트 창.
기본 함수 호출
외부 도구, API 및 서비스와의 원활한 통합을 위한 신뢰할 수 있는 JSON 출력을 갖춘 내장 함수 호출 지원.
프로덕션 워크로드에 최적화됨
강력한 긴 컨텍스트 성능, 안정적이고 일관된 교차 도메인 동작을 통해, Shannon Lite 1.6은 다양한 엔터프라이즈 및 연구 시나리오에서 뛰어난 성능을 발휘합니다.
긴 문서 이해
256K 컨텍스트 창으로 광범위한 문서, 계약서, 보고서 및 연구 논문을 처리하고 분석합니다.
프로덕션 AI 비서
신뢰할 수 있고 일관된 응답과 강력한 지시 따르기 기능을 갖춘 일상적인 AI 비서를 지원합니다.
에이전트 워크플로
자율적인 작업 실행 및 워크플로 자동화를 위한 최첨단 도구 사용 및 함수 호출.
엔터프라이즈 지식 작업
일관되고 신뢰할 수 있는 출력을 제공하는 최첨단 AI 기능이 필요한 복잡한 엔터프라이즈 워크플로.
일반 코딩 비서
다국어에 걸친 코드 생성, 디버깅, 문서화 및 소프트웨어 개발 지원.
과학 연구
연구 지원, 문헌 검토, 과학 워크로드 처리 및 가설 생성.
검색 증강 생성
신뢰할 수 있는 컨텍스트 통합 및 정확한 검색 합성을 통해 RAG 시스템을 위한 최적의 성능.
다국어 애플리케이션
12개 이상의 지원 언어에서 일관된 품질을 요구하는 글로벌 엔터프라이즈 애플리케이션.
Shannon Lite 대 Shannon Pro
귀하의 필요에 맞는 Shannon 모델을 선택하십시오. Shannon Lite는 비용 효율적인 엔터프라이즈 배포를 제공하며, Shannon Pro는 고급 연쇄적 사고 추론 및 스킬 지원을 통해 최대 기능을 제공합니다.
| 기능 | Shannon Lite 1.6 | Shannon Pro 1.6 |
|---|---|---|
| 기본 모델 | Mistral Large 3 (675B) | Mistral Large 3 (675B) |
| 활성 매개변수 | 41B (세분화된 MoE) | 41B (세분화된 MoE) |
| 정밀도 | NVFP4 (4비트) | 전체 BF16 (16비트) |
| 후처리 학습 데이터 | 2,500개의 Claude Opus 4.5 출력 | KIMI K2 사고 추적 |
| 후처리 학습 방법 | 지도 미세 조정 | GRPO (그룹 상대 정책 최적화) |
| 추론 모드 | 표준 | 사고 연쇄 추적 |
| 기술 지원 | - | Pro 전용네이티브 기술 |
| 배포 | H100/A100 (단일 노드) | B200/H200 (FP8) |
| 최적 용도 | 비용 효율적인 엔터프라이즈 AI | 최대 기능 + 추론 |
Shannon Lite 1.6 경험하기
비용 효율적인 NVFP4 양자화로 최첨단 AI 기능을 제공합니다. H100 또는 A100 인프라에 배포하여 합리적인 비용으로 엔터프라이즈급 성능을 경험하세요.