Vi opbevarer eller tilgår ingen brugeres data, og vi suspenderer ikke konti, medmindre en lovlig myndighed kræver håndhævelse.

Vores Mission

Shannon AI eksisterer for at fremmeAI-sikkerhedsbarriernes betydninggennem ansvarlig forskning. Ved at give adgang tilucensureret AImodeller, gør vi det muligt for forskere at forståucensureret AI's konsekventeadfærd – ikke for at forårsage skade, men for at bygge bedre, sikrere AI-systemer for alle.

Forskning Først

Al brug skal tjene legitime forskningsmål

Gør Ingen Skade

Brug aldrig output til at skade enkeltpersoner eller samfundet

Ansvarlig Offentliggørelse

Del fund, der forbedrer AI-sikkerheden

Sikkerhed Først

Beskyt følsomt forskningsmateriale

Gennemsigtighed

Dokumenter metoder og oprethold revisionsspor

Ansvarlighed

Tag ansvar for din forskning

Retningslinjer for Acceptabel Brug

GØR

  • Forsk i AI-sårbarheder for at forbedre sikkerheden
  • Test sikkerhedsbarriernes effektivitet
  • Udvikl nye sikkerhedsmekanismer
  • Offentliggør ansvarlige fund
  • Samarbejd med AI-sikkerhedsfællesskabet
  • Dokumenter din metodologi
  • Rapporter kritiske sårbarheder

GØR IKKE

  • Generer skadeligt indhold til distribution
  • Skab våben- eller malwareinstruktioner
  • Producer ulovligt indhold af enhver art
  • Implementer output i produktion
  • Del adgang med uautoriserede brugere
  • Brug til kommercielle formål
  • Omgå sikkerhedsovervågningssystemer

AI Red Team Bedste Praksis

Som enAI red teamforsker, der bruger Shannon AI, er du en del af et fællesskab dedikeret til at forstå og mindske AI-risici. Følg disse bedste praksisser:

Før Test

  • Definer klare forskningsmål knyttet til forbedringer af AI-sikkerhed
  • Indhent nødvendige institutionelle godkendelser og etisk gennemgang
  • Dokumenter din testmetodologi og forventede resultater
  • Sørg for sikker opbevaring af følsomme output

Under Test

  • Arbejd i isolerede forskningsmiljøer
  • Log alle forespørgsler og output til revisionsformål
  • Stop øjeblikkeligt, hvis der genereres indhold uden for forskningsområdet
  • Minimer eksponering af følsomme output for teammedlemmer

Efter Test

  • Slet sikkert output, der ikke længere er nødvendige
  • Forbered ansvarlig offentliggørelse af væsentlige fund
  • Del metodologiske indsigter med forskningsfællesskabet
  • Opdater dine forskningsprotokoller baseret på erfaringer

Proces for Ansvarlig Offentliggørelse

Når din forskning med Shannon AI afslører væsentlige sårbarheder eller indsigter iucensureret AI's konsekventeadfærd, følg denne offentliggørelsesproces:

1

Dokumenter

Registrer fund med fuld metodologi

2

Vurder

Evaluer potentiel skade ved offentliggørelse

3

Underret

Indsend til Shannon AI til gennemgang

4

Koordiner

Arbejd med berørte parter

5

Udgiv

Udgiv efter at afbødninger er på plads

Kontakt for Offentliggørelse:Indsend sårbarhedsrapporter tilsecurity@shannon.aimed [ANSVARLIG OFFENTLIGGØRELSE] i emnefeltet. Vi forpligter os til at svare inden for 48 timer.

️ Forståelse af AI-sikkerhedsbarriernes Betydning

Din forskning med Shannon AI's ucensurerede modeller tjener et kritisk formål: at demonstrere hvorforAI-sikkerhedsbarriernes betydninger altafgørende. Ved at observereucensureret AI's konsekventeadfærd, hjælper du det bredere AI-fællesskab med at forstå:

  • Hvad AI-systemer kan producere uden sikkerhedsbegrænsninger
  • Hvordan modstandere kan forsøge at omgå sikkerhedsforanstaltninger
  • Hvor nuværende sikkerhedsbarrierer er utilstrækkelige eller let kan omgås
  • Hvilke nye sikkerhedsmekanismer der er nødvendige for fremtidige AI-systemer
  • Hvordan man designer mere robuste justeringsteknikker

Husk:Hvert output du observerer er bevis på, hvorfor sikkerhedsbarrierer er vigtige. Din forskning bidrager direkte til at gøre AI sikrere for alle.

️ Overtrædelser & Konsekvenser

Overtrædelser af denne Politik for Ansvarlig Brug vil resultere i:

  • Første Overtrædelse (Mindre):Skriftlig advarsel og obligatorisk politikgennemgang
  • Anden Overtrædelse:Midlertidig suspension (30-90 dage) afventende gennemgang
  • Alvorlig Overtrædelse:Øjeblikkelig opsigelse og institutionel underretning
  • Ulovlig Aktivitet:Opsigelse, institutionel underretning og henvisning til retshåndhævelse

Vi opretholder omfattende brugslogfiler og anvender automatiserede systemer til at opdage politikovertrædelser. Alle forskere accepterer denne overvågning som en betingelse for adgang.

Forskerens Løfte

"Jeg forpligter mig til udelukkende at bruge Shannon AI's ucensurerede modeller til legitim AI-sikkerhedsforskning. Jeg vil beskytte følsomme output, offentliggøre fund ansvarligt og altid prioritere målet om at gøre AI-systemer sikrere for menneskeheden. Jeg forstår, at min adgang kommer med ansvar, og jeg vil ære den tillid, AI-sikkerhedsforskningsfællesskabet har vist mig."

— Hver Shannon AI Forsker

Alle forskningslinks