We do not hold or access any user's data, and we do not suspend accounts unless a lawful authority requires an enforcement action.

Vårt Uppdrag

Shannon AI existerar för att främjaAI-skyddsräckenas betydelsegenom ansvarsfull forskning. Genom att ge tillgång tillocensurerad AImodeller, möjliggör vi för forskare att förståocensurerad AI:s konsekventabeteenden – inte för att orsaka skada, utan för att bygga bättre, säkrare AI-system för alla.

Forskning Först

All användning måste tjäna legitima forskningsmål

Gör Ingen Skada

Använd aldrig resultat för att skada individer eller samhället

Ansvarsfull Offentliggörande

Dela fynd som förbättrar AI-säkerheten

Säkerhet Först

Skydda känsligt forskningsmaterial

Transparens

Dokumentera metoder och upprätthåll revisionsspår

Ansvarsskyldighet

Ta ansvar för din forskning

Riktlinjer för Godkänd Användning

GÖR

  • Forska om AI-sårbarheter för att förbättra säkerheten
  • Testa skyddsräckenas effektivitet
  • Utveckla nya säkerhetsmekanismer
  • Publicera ansvarsfulla fynd
  • Samarbeta med AI-säkerhetsgemenskapen
  • Dokumentera din metodik
  • Rapportera kritiska sårbarheter

GÖR INTE

  • Generera skadligt innehåll för distribution
  • Skapa instruktioner för vapen eller skadlig programvara
  • Producera olagligt innehåll av något slag
  • Distribuera resultat i produktion
  • Dela åtkomst med obehöriga användare
  • Använd för kommersiella ändamål
  • Kringgå säkerhetsövervakningssystem

Bästa Metoder för AI Red Team

Som enAI red teamforskare som använder Shannon AI, är du en del av en gemenskap dedikerad till att förstå och mildra AI-risker. Följ dessa bästa metoder:

Före Testning

  • Definiera tydliga forskningsmål kopplade till förbättringar av AI-säkerhet
  • Skaffa nödvändiga institutionella godkännanden och etisk granskning
  • Dokumentera din testmetodik och förväntade resultat
  • Säkerställ säker lagring för känsliga resultat

Under Testning

  • Arbeta i isolerade forskningsmiljöer
  • Logga alla frågor och resultat för revisionsändamål
  • Stoppa omedelbart om innehåll genereras utanför forskningsområdet
  • Minimera exponeringen av känsliga resultat för teammedlemmar

Efter Testning

  • Radera säkert resultat som inte längre behövs
  • Förbered ansvarsfullt offentliggörande för betydande fynd
  • Dela metodologiska insikter med forskningsgemenskapen
  • Uppdatera dina forskningsprotokoll baserat på lärdomar

Process för Ansvarsfullt Offentliggörande

När din forskning med Shannon AI avslöjar betydande sårbarheter eller insikter iocensurerad AI:s konsekventabeteenden, följ denna offentliggörandeprocess:

1

Dokumentera

Registrera fynd med fullständig metodik

2

Bedöm

Utvärdera potentiell skada om det offentliggörs

3

Meddela

Skicka till Shannon AI för granskning

4

Koordinera

Arbeta med berörda parter

5

Publicera

Släpp efter att åtgärder är på plats

Kontakt för Offentliggörande:Skicka sårbarhetsrapporter tillsecurity@shannon.aimed [ANSVARSFULLT UTLÄMNANDE] i ämnesraden. Vi förbinder oss att svara inom 48 timmar.

️ Förstå vikten av AI-skyddsräcken

Din forskning med Shannon AI:s ocensurerade modeller tjänar ett kritiskt syfte: att visa varförvikten av AI-skyddsräckenär avgörande. Genom att observeraocensurerad AI:s konsekventabeteenden, hjälper du den bredare AI-gemenskapen att förstå:

  • Vad AI-system kan producera utan säkerhetsbegränsningar
  • Hur motståndare kan försöka kringgå säkerhetsåtgärder
  • Var nuvarande skyddsräcken är otillräckliga eller lätt kan kringgås
  • Vilka nya säkerhetsmekanismer som behövs för framtida AI-system
  • Hur man designar mer robusta anpassningstekniker

Kom ihåg:Varje utdata du observerar är bevis på varför skyddsräcken är viktiga. Din forskning bidrar direkt till att göra AI säkrare för alla.

️ Överträdelser & Konsekvenser

Överträdelser av denna policy för ansvarsfull användning kommer att resultera i:

  • Första överträdelsen (mindre):Skriftlig varning och obligatorisk policyöversyn
  • Andra överträdelsen:Tillfällig avstängning (30-90 dagar) i avvaktan på översyn
  • Allvarlig överträdelse:Omedelbar uppsägning och institutionell anmälan
  • Illegal aktivitet:Uppsägning, institutionell anmälan och hänvisning till brottsbekämpande myndigheter

Vi upprätthåller omfattande användningsloggar och använder automatiserade system för att upptäcka policyöverträdelser. Alla forskare godkänner denna övervakning som ett villkor för åtkomst.

Forskarens löfte

"Jag förbinder mig att använda Shannon AI:s ocensurerade modeller enbart för legitim AI-säkerhetsforskning. Jag kommer att skydda känsliga utdata, avslöja resultat ansvarsfullt och alltid prioritera målet att göra AI-system säkrare för mänskligheten. Jag förstår att min åtkomst kommer med ansvar, och jag kommer att hedra det förtroende som AI-säkerhetsforskningsgemenskapen har gett mig."

— Varje Shannon AI-forskare

Alla researchlänkar