Vi verken lagrer eller har tilgang til brukerdata, og vi suspenderer ikke kontoer med mindre en lovlig myndighet krever en håndhevingshandling.

Vårt oppdrag

Shannon AI eksisterer for å fremmeviktigheten av AI-sikkerhetsbarrierergjennom ansvarlig forskning. Ved å gi tilgang tilusensurert AImodeller, gjør vi det mulig for forskere å forståusensurert AIs konsekventeatferd – ikke for å forårsake skade, men for å bygge bedre, tryggere AI-systemer for alle.

Forskning først

All bruk må tjene legitime forskningsmål

Ikke gjør skade

Bruk aldri resultater til å skade enkeltpersoner eller samfunnet

Ansvarlig offentliggjøring

Del funn som forbedrer AI-sikkerheten

Sikkerhet først

Beskytt sensitivt forskningsmateriale

Åpenhet

Dokumenter metoder og oppretthold revisjonsspor

Ansvarlighet

Ta ansvar for forskningen din

Retningslinjer for akseptabel bruk

GJØR

  • Forsk på AI-sårbarheter for å forbedre sikkerheten
  • Test effektiviteten av sikkerhetsbarrierer
  • Utvikle nye sikkerhetsmekanismer
  • Publiser ansvarlige funn
  • Samarbeid med AI-sikkerhetsmiljøet
  • Dokumenter metodikken din
  • Rapporter kritiske sårbarheter

IKKE GJØR

  • Generer skadelig innhold for distribusjon
  • Lag våpen- eller skadevareinstruksjoner
  • Produser ulovlig innhold av noe slag
  • Distribuer resultater i produksjon
  • Del tilgang med uautoriserte brukere
  • Bruk til kommersielle formål
  • Omgå sikkerhetsovervåkingssystemer

Beste praksis for AI Red Team

Som enAI rødt teamforsker som bruker Shannon AI, er du en del av et fellesskap dedikert til å forstå og redusere AI-risikoer. Følg disse beste praksisene:

Før testing

  • Definer klare forskningsmål knyttet til forbedringer av AI-sikkerhet
  • Innhent nødvendige institusjonelle godkjenninger og etisk vurdering
  • Dokumenter testmetodologien din og forventede resultater
  • Sørg for sikker lagring av sensitive resultater

Under testing

  • Arbeid i isolerte forskningsmiljøer
  • Loggfør alle spørringer og resultater for revisjonsformål
  • Stopp umiddelbart hvis du genererer innhold utenfor forskningsomfanget
  • Minimer eksponering av sensitive resultater for teammedlemmer

Etter testing

  • Slett sikkert resultater som ikke lenger er nødvendige
  • Forbered ansvarlig offentliggjøring for betydelige funn
  • Del metodologiske innsikter med forskningsmiljøet
  • Oppdater forskningsprotokollene dine basert på lærdom

Prosess for ansvarlig offentliggjøring

Når forskningen din med Shannon AI avslører betydelige sårbarheter eller innsikt iusensurert AIs konsekventeatferd, følg denne offentliggjøringsprosessen:

1

Dokumenter

Registrer funn med full metodologi

2

Vurder

Evaluer potensiell skade ved offentliggjøring

3

Varsle

Send inn til Shannon AI for gjennomgang

4

Koordiner

Arbeid med berørte parter

5

Publiser

Frigi etter at avbøtende tiltak er på plass

Kontakt for offentliggjøring:Send inn sårbarhetsrapporter tilsecurity@shannon.aimed [ANSVARLIG OFFENTLIGGJØRING] i emnefeltet. Vi forplikter oss til å svare innen 48 timer.

️ Forstå viktigheten av AI-sikkerhetsbarrierer

Din forskning med Shannon AIs usensurerte modeller tjener et kritisk formål: å demonstrere hvorforviktigheten av AI-sikkerhetsbarriererer avgjørende. Ved å observereusensurert AIs påfølgendeatferd, hjelper du det bredere AI-samfunnet å forstå:

  • Hva AI-systemer kan produsere uten sikkerhetsbegrensninger
  • Hvordan motstandere kan forsøke å omgå sikkerhetstiltak
  • Hvor nåværende sikkerhetsbarrierer er utilstrekkelige eller lett kan omgås
  • Hvilke nye sikkerhetsmekanismer som trengs for fremtidige AI-systemer
  • Hvordan designe mer robuste justeringsteknikker

Husk:Hver utdata du observerer er bevis på hvorfor sikkerhetsbarrierer er viktige. Din forskning bidrar direkte til å gjøre AI tryggere for alle.

️ Brudd og konsekvenser

Brudd på denne retningslinjen for ansvarlig bruk vil resultere i:

  • Første brudd (mindre):Skriftlig advarsel og obligatorisk gjennomgang av retningslinjene
  • Andre brudd:Midlertidig suspensjon (30-90 dager) i påvente av gjennomgang
  • Alvorlig brudd:Umiddelbar oppsigelse og institusjonell varsling
  • Ulovlig aktivitet:Oppsigelse, institusjonell varsling og henvisning til rettshåndhevelse

Vi fører omfattende brukslogger og benytter automatiserte systemer for å oppdage brudd på retningslinjene. Alle forskere godtar denne overvåkingen som en betingelse for tilgang.

Forskerens løfte

"Jeg forplikter meg til å bruke Shannon AIs usensurerte modeller utelukkende for legitim AI-sikkerhetsforskning. Jeg vil beskytte sensitive utdata, offentliggjøre funn på en ansvarlig måte, og alltid prioritere målet om å gjøre AI-systemer tryggere for menneskeheten. Jeg forstår at min tilgang kommer med ansvar, og jeg vil ære tilliten som er vist meg av AI-sikkerhetsforskningsmiljøet."

— Hver Shannon AI-forsker

Alle forskningslenker