איננו מחזיקים או ניגשים לנתונים של אף משתמש, ואיננו משעים חשבונות אלא אם רשות חוקית דורשת פעולה אכיפתית.

המשימה שלנו

Shannon AI קיימת כדי לקדםחשיבות מעקות הבטיחות של AIבאמצעות מחקר אחראי. על ידי מתן גישה ל-AI ללא צנזורהמודלים, אנו מאפשרים לחוקרים להביןהתנהגויות הנובעות מ-AI ללא צנזורה—לא כדי לגרום נזק, אלא כדי לבנות מערכות AI טובות ובטוחות יותר עבור כולם.

מחקר קודם כל

כל שימוש חייב לשרת מטרות מחקר לגיטימיות

אל תגרום נזק

לעולם אל תשתמש בפלטים כדי לפגוע באנשים או בחברה

גילוי אחראי

שתף ממצאים המשפרים את בטיחות ה-AI

אבטחה קודמת לכל

הגן על חומרי מחקר רגישים

שקיפות

תעד שיטות ושמור תיעוד ביקורת

אחריותיות

קח אחריות על המחקר שלך

הנחיות לשימוש קביל

עשה

  • חקור פגיעויות AI כדי לשפר את הבטיחות
  • בדוק את יעילות מעקות הבטיחות
  • פתח מנגנוני בטיחות חדשים
  • פרסם ממצאים אחראיים
  • שתף פעולה עם קהילת בטיחות ה-AI
  • תעד את המתודולוגיה שלך
  • דווח על פגיעויות קריטיות

אל תעשה

  • צור תוכן מזיק להפצה
  • צור הוראות לכלי נשק או תוכנות זדוניות
  • הפק תוכן בלתי חוקי מכל סוג
  • פרוס פלטים בסביבת ייצור
  • שתף גישה עם משתמשים לא מורשים
  • השתמש למטרות מסחריות
  • עקוף מערכות ניטור בטיחות

שיטות עבודה מומלצות לצוות אדום של AI

כ-צוות אדום של AIחוקר המשתמש ב-Shannon AI, אתה חלק מקהילה המוקדשת להבנה והפחתת סיכוני AI. פעל לפי שיטות עבודה מומלצות אלו:

לפני הבדיקה

  • הגדר יעדי מחקר ברורים הקשורים לשיפורי בטיחות AI
  • קבל אישורים מוסדיים ובדיקת אתיקה נדרשים
  • תעד את מתודולוגיית הבדיקה שלך ואת התוצאות הצפויות
  • ודא אחסון מאובטח לכל פלט רגיש

במהלך הבדיקה

  • עבוד בסביבות מחקר מבודדות
  • תעד את כל השאילתות והפלטים למטרות ביקורת
  • הפסק מיד אם נוצר תוכן מחוץ להיקף המחקר
  • מזער חשיפה של פלטים רגישים לחברי צוות

לאחר הבדיקה

  • מחק באופן מאובטח פלטים שאינם נחוצים עוד
  • הכן גילוי אחראי לממצאים משמעותיים
  • שתף תובנות מתודולוגיות עם קהילת המחקר
  • עדכן את פרוטוקולי המחקר שלך בהתבסס על למידות

תהליך גילוי אחראי

כאשר המחקר שלך עם Shannon AI חושף פגיעויות משמעותיות או תובנות לגביהתנהגויות הנובעות מ-AI ללא צנזורה, פעל לפי תהליך גילוי זה:

1

תעד

תעד ממצאים עם מתודולוגיה מלאה

2

הערך

הערך נזק פוטנציאלי אם יפורסם

3

הודע

שלח ל-Shannon AI לבדיקה

4

תאם

עבוד עם הצדדים המושפעים

5

פרסם

פרסם לאחר יישום אמצעי הפחתה

איש קשר לגילוי:שלח דוחות פגיעות ל-security@shannon.aiעם [גילוי אחראי] בשורת הנושא. אנו מתחייבים להגיב תוך 48 שעות.

️ הבנת חשיבות מעקות הבטיחות של AI

המחקר שלך עם המודלים הלא מצונזרים של Shannon AI משרת מטרה קריטית: הדגמה מדועחשיבות מעקות הבטיחות של AIהיא עליונה. על ידי התבוננות ב-התנהגויות הנובעות מ-AI לא מצונזר, אתה עוזר לקהילת ה-AI הרחבה יותר להבין:

  • מה שמערכות AI עלולות לייצר ללא מגבלות בטיחות
  • כיצד יריבים עלולים לנסות לעקוף אמצעי בטיחות
  • היכן שמעקות הבטיחות הנוכחיים אינם מספקים או ניתנים לעקיפה בקלות
  • אילו מנגנוני בטיחות חדשים נחוצים למערכות AI עתידיות
  • כיצד לתכנן טכניקות יישור חזקות יותר

זכור:כל פלט שאתה צופה בו הוא עדות לכך שמעקות בטיחות חשובים. המחקר שלך תורם ישירות להפיכת AI לבטוח יותר עבור כולם.

️ הפרות ותוצאותיהן

הפרות של מדיניות שימוש אחראי זו יגרמו ל:

  • הפרה ראשונה (קלה):אזהרה בכתב וסקירת מדיניות חובה
  • הפרה שנייה:השעיה זמנית (30-90 יום) עד לסיום הבדיקה
  • הפרה חמורה:סיום מיידי והודעה למוסד
  • פעילות בלתי חוקית:סיום, הודעה למוסד, והפניה לרשויות אכיפת החוק

אנו מתחזקים יומני שימוש מקיפים ומפעילים מערכות אוטומטיות לזיהוי הפרות מדיניות. כל החוקרים מסכימים לניטור זה כתנאי גישה.

התחייבות החוקר

"אני מתחייב/ת להשתמש במודלים הלא מצונזרים של Shannon AI אך ורק למחקר לגיטימי בבטיחות AI. אגן על פלטים רגישים, אגלה ממצאים באחריות, ותמיד אתעדף את המטרה של הפיכת מערכות AI לבטוחות יותר עבור האנושות. אני מבין/ה שגישתי כרוכה באחריות, ואכבד את האמון שניתן בי על ידי קהילת מחקר בטיחות ה-AI."

— כל חוקר/ת Shannon AI

כל קישורי המחקר