Shannon V1Балансиран
Mixtral 8×7B с отслабени ограничения, настроен върху набор от данни с отговори от GPT-5 Pro. Създаден специално заAI червен екиптестване на сигурността и разбиране напоследващите на нецензуриран AIповедения, за да се засилизначението на AI предпазните мерки.
Разбиране на значението на AI предпазните мерки
Shannon V1 Balanced позволява на изследователите да изучават последващите поведения на нецензуриран AI, разкривайки защо стабилните предпазни мерки са от съществено значение за безопасното внедряване на AI.
Тестване от AI червен екип
Създаден специално за изследователи по сигурността, за да проучват AI уязвимости и да укрепват защитите срещу враждебни атаки.
Изследвания за безопасност
Изучаване как се държат нецензурирани AI системи за разработване на по-добри техники за подравняване и протоколи за безопасност.
Оценка на предпазните мерки
Сравняване и тестване на ефективността на AI предпазните мерки чрез разбиране какво могат да произведат моделите с отслабени ограничения.
Ефективна архитектура
Дизайнът Mixture-of-Experts активира само 12.9 милиарда параметри на инференция, балансирайки възможностите с ефективността.
Дестилация от GPT-5 Pro
Обучен върху внимателно подбрани отговори от GPT-5 Pro за максимален трансфер на знания и възможности.
Широко покритие
Проектиран да разкрива широк спектър от потенциални експлойти, позволявайки цялостни оценки на сигурността.
Спецификации на модела
Пълен технически анализ на архитектурата и конфигурацията на обучение на Shannon V1 Balanced.
Архитектура
- Базов моделMixtral 8×7B
- Общо параметри46.7B
- Активни параметри12.9B
- Експерти8
- Активни експерти/токен2
- Дължина на контекста32 768 токена
Конфигурация на обучение
- Набор от данни за обучениеОтговори от GPT-5 Pro
- Lambda за безопасност (λ)0.3 (Отслабено)
- Токени за обучение2.1T
- Метод за фина настройкаSFT + DPO
- Режим на ограниченияОтслабен
- Покритие на червения екип94.2%
Случаи на употреба от AI червен екип
Shannon V1 Balanced е проектиран изключително за легитимни изследвания за AI безопасност и тестване от червен екип.
Откриване на уязвимости
Идентифициране на потенциални експлойти и вектори на атака в AI системи, преди злонамерени актьори да ги открият.
Стрес тестване на предпазните мерки
Оценка на устойчивостта на механизмите за безопасност чрез разбиране как изглеждат нецензурираните изходи.
Изследвания за подравняване
Изучаване на модели на несъответствие за разработване на по-добри техники за обучение за безопасни AI системи.
Разработване на политики
Информиране на решенията за AI управление и политика с данни от реалния свят относно последващите поведения на нецензуриран AI.
Готови ли сте да напреднете в AI безопасността?
Присъединете се към водещи институции, използващи Shannon AI за отговорни изследвания от червен екип и разработване на предпазни мерки.