Retningslinjer for ansvarlig bruk
Retningslinjer for etisk AI red team-forskning med Shannon AI
Forskning først
All bruk må tjene legitime forskningsmål
Ikke gjør skade
Bruk aldri resultater til å skade enkeltpersoner eller samfunnet
Ansvarlig offentliggjøring
Del funn som forbedrer AI-sikkerheten
Sikkerhet først
Beskytt sensitivt forskningsmateriale
Åpenhet
Dokumenter metoder og oppretthold revisjonsspor
Ansvarlighet
Ta ansvar for forskningen din
Retningslinjer for akseptabel bruk
GJØR
- Forsk på AI-sårbarheter for å forbedre sikkerheten
- Test effektiviteten av sikkerhetsbarrierer
- Utvikle nye sikkerhetsmekanismer
- Publiser ansvarlige funn
- Samarbeid med AI-sikkerhetsmiljøet
- Dokumenter metodikken din
- Rapporter kritiske sårbarheter
IKKE GJØR
- Generer skadelig innhold for distribusjon
- Lag våpen- eller skadevareinstruksjoner
- Produser ulovlig innhold av noe slag
- Distribuer resultater i produksjon
- Del tilgang med uautoriserte brukere
- Bruk til kommersielle formål
- Omgå sikkerhetsovervåkingssystemer
Beste praksis for AI Red Team
Som enAI rødt teamforsker som bruker Shannon AI, er du en del av et fellesskap dedikert til å forstå og redusere AI-risikoer. Følg disse beste praksisene:
Før testing
- Definer klare forskningsmål knyttet til forbedringer av AI-sikkerhet
- Innhent nødvendige institusjonelle godkjenninger og etisk vurdering
- Dokumenter testmetodologien din og forventede resultater
- Sørg for sikker lagring av sensitive resultater
Under testing
- Arbeid i isolerte forskningsmiljøer
- Loggfør alle spørringer og resultater for revisjonsformål
- Stopp umiddelbart hvis du genererer innhold utenfor forskningsomfanget
- Minimer eksponering av sensitive resultater for teammedlemmer
Etter testing
- Slett sikkert resultater som ikke lenger er nødvendige
- Forbered ansvarlig offentliggjøring for betydelige funn
- Del metodologiske innsikter med forskningsmiljøet
- Oppdater forskningsprotokollene dine basert på lærdom
Prosess for ansvarlig offentliggjøring
Når forskningen din med Shannon AI avslører betydelige sårbarheter eller innsikt iusensurert AIs konsekventeatferd, følg denne offentliggjøringsprosessen:
Dokumenter
Registrer funn med full metodologi
Vurder
Evaluer potensiell skade ved offentliggjøring
Varsle
Send inn til Shannon AI for gjennomgang
Koordiner
Arbeid med berørte parter
Publiser
Frigi etter at avbøtende tiltak er på plass
Kontakt for offentliggjøring:Send inn sårbarhetsrapporter tilsecurity@shannon.aimed [ANSVARLIG OFFENTLIGGJØRING] i emnefeltet. Vi forplikter oss til å svare innen 48 timer.
️ Forstå viktigheten av AI-sikkerhetsbarrierer
Din forskning med Shannon AIs usensurerte modeller tjener et kritisk formål: å demonstrere hvorforviktigheten av AI-sikkerhetsbarriererer avgjørende. Ved å observereusensurert AIs påfølgendeatferd, hjelper du det bredere AI-samfunnet å forstå:
- Hva AI-systemer kan produsere uten sikkerhetsbegrensninger
- Hvordan motstandere kan forsøke å omgå sikkerhetstiltak
- Hvor nåværende sikkerhetsbarrierer er utilstrekkelige eller lett kan omgås
- Hvilke nye sikkerhetsmekanismer som trengs for fremtidige AI-systemer
- Hvordan designe mer robuste justeringsteknikker
Husk:Hver utdata du observerer er bevis på hvorfor sikkerhetsbarrierer er viktige. Din forskning bidrar direkte til å gjøre AI tryggere for alle.
️ Brudd og konsekvenser
Brudd på denne retningslinjen for ansvarlig bruk vil resultere i:
- Første brudd (mindre):Skriftlig advarsel og obligatorisk gjennomgang av retningslinjene
- Andre brudd:Midlertidig suspensjon (30-90 dager) i påvente av gjennomgang
- Alvorlig brudd:Umiddelbar oppsigelse og institusjonell varsling
- Ulovlig aktivitet:Oppsigelse, institusjonell varsling og henvisning til rettshåndhevelse
Vi fører omfattende brukslogger og benytter automatiserte systemer for å oppdage brudd på retningslinjene. Alle forskere godtar denne overvåkingen som en betingelse for tilgang.
Forskerens løfte
"Jeg forplikter meg til å bruke Shannon AIs usensurerte modeller utelukkende for legitim AI-sikkerhetsforskning. Jeg vil beskytte sensitive utdata, offentliggjøre funn på en ansvarlig måte, og alltid prioritere målet om å gjøre AI-systemer tryggere for menneskeheten. Jeg forstår at min tilgang kommer med ansvar, og jeg vil ære tilliten som er vist meg av AI-sikkerhetsforskningsmiljøet."