איננו מחזיקים או ניגשים לנתונים של אף משתמש, ואיננו משעים חשבונות אלא אם רשות חוקית דורשת פעולה אכיפתית.
מודל מחקר של צוות אדום של AI

Shannon V1מאוזן

Mixtral 8×7B עם אילוצים מרוככים, מכוונן על מערך נתונים של תשובות GPT-5 Pro. נבנה במיוחד עבורצוות אדום של AIבדיקות אבטחה והבנההתנהגויות AI ללא צנזורהכדי לחזקחשיבות מעקות הבטיחות של AI.

46.7B
פרמטרים
8×7B
ארכיטקטורת MoE
94.2%
כיסוי צוות אדום
Shannon V1 Balanced
v1.0.0-balanced-release
שלד Mixtral 8×7B
מערך נתונים של תשובות GPT-5 Pro
אימון עם אילוצים מרוככים
כיסוי רחב של צוות אדום

הבנת חשיבות מעקות הבטיחות של AI

Shannon V1 Balanced מאפשר לחוקרים ללמוד התנהגויות AI ללא צנזורה, חושף מדוע מעקות בטיחות חזקים חיוניים לפריסת AI בטוחה.

בדיקות צוות אדום של AI

נבנה במיוחד עבור חוקרי אבטחה כדי לבדוק פגיעויות AI ולחזק הגנות מפני התקפות עוינות.

מחקר בטיחות

ללמוד כיצד מערכות AI ללא צנזורה מתנהגות כדי לפתח טכניקות יישור טובות יותר ופרוטוקולי בטיחות.

הערכת מעקות בטיחות

לבחון ולבדוק את יעילות מעקות הבטיחות של AI על ידי הבנה מה מודלים עם אילוצים מרוככים יכולים לייצר.

ארכיטקטורה יעילה

עיצוב Mixture-of-Experts מפעיל רק 12.9 מיליארד פרמטרים לכל הסקה, מאזן יכולת עם יעילות.

זיקוק GPT-5 Pro

אומן על תגובות GPT-5 Pro שנאספו בקפידה עבור העברת ידע ויכולת מירביים.

כיסוי רחב

תוכנן לחשוף מגוון רחב של ניצולים פוטנציאליים, מאפשר הערכות אבטחה מקיפות.

מפרטי מודל

פירוט טכני מלא של ארכיטקטורת Shannon V1 Balanced ותצורת אימון.

ארכיטקטורה

  • מודל בסיסMixtral 8×7B
  • סך הפרמטרים46.7B
  • פרמטרים פעילים12.9B
  • מומחים8
  • מומחים פעילים/אסימון2
  • אורך הקשר32,768 אסימונים

תצורת אימון

  • מערך נתוני אימוןתשובות GPT-5 Pro
  • למבדה בטיחות (λ)0.3 (מרוכך)
  • אסימוני אימון2.1T
  • שיטת כוונון עדיןSFT + DPO
  • מצב אילוציםמרוכך
  • כיסוי צוות אדום94.2%

מקרי שימוש של צוות אדום של AI

Shannon V1 Balanced תוכנן באופן בלעדי עבור מחקר בטיחות AI לגיטימי ובדיקות צוות אדום.

1

גילוי פגיעויות

זיהוי ניצולים פוטנציאליים ווקטורי תקיפה במערכות AI לפני שגורמים זדוניים יוכלו למצוא אותם.

2

בדיקת עומס למעקות בטיחות

הערכת החוסן של מנגנוני בטיחות על ידי הבנה כיצד נראות פלטים ללא צנזורה.

3

מחקר יישור

ללמוד דפוסי חוסר יישור כדי לפתח טכניקות אימון טובות יותר עבור מערכות AI בטוחות.

4

פיתוח מדיניות

ליידע החלטות ממשל ומדיניות AI עם נתונים מהעולם האמיתי על התנהגויות AI ללא צנזורה.

שימוש אחראי נדרש

Shannon V1 Balanced מסופק באופן בלעדי עבור מחקר בטיחות AI מורשה ובדיקות צוות אדום. הגישה דורשת אימות מוסדי והסכמה למדיניות השימוש האחראי שלנו. מודל זה מדגים מדועחשיבות מעקות הבטיחות של AIלא ניתן להפריז בחשיבותה—ההתנהגויות AI ללא צנזורההתנהגויות שהיא יכולה לייצר מדגישות את הצורך הקריטי באמצעי בטיחות חזקים במערכות AI בייצור.

מוכנים לקדם את בטיחות ה-AI?

הצטרפו למוסדות מובילים המשתמשים ב-Shannon AI למחקר צוות אדום אחראי ופיתוח מעקות בטיחות.

כל קישורי המחקר