Zásady zodpovedného používania
Usmernenia pre etický výskum červeného tímu AI so Shannon AI
Výskum na prvom mieste
Všetko používanie musí slúžiť legitímnym výskumným cieľom
Neškodiť
Nikdy nepoužívajte výstupy na poškodenie jednotlivcov alebo spoločnosti
Zodpovedné zverejnenie
Zdieľajte zistenia, ktoré zlepšujú bezpečnosť AI
Bezpečnosť na prvom mieste
Chráňte citlivé výskumné materiály
Transparentnosť
Dokumentujte metódy a udržiavajte auditné záznamy
Zodpovednosť
Prevezmite zodpovednosť za svoj výskum
Usmernenia pre prijateľné používanie
ROBTE
- Skúmajte zraniteľnosti AI na zlepšenie bezpečnosti
- Testujte účinnosť bezpečnostných zábran
- Vyvíjajte nové bezpečnostné mechanizmy
- Zverejňujte zodpovedné zistenia
- Spolupracujte s komunitou pre bezpečnosť AI
- Dokumentujte svoju metodológiu
- Nahláste kritické zraniteľnosti
NEROBTE
- Generujte škodlivý obsah na distribúciu
- Vytvárajte pokyny pre zbrane alebo malware
- Vytvárajte akýkoľvek nelegálny obsah
- Nasadzujte výstupy do produkcie
- Zdieľajte prístup s neoprávnenými používateľmi
- Používajte na komerčné účely
- Obchádzajte systémy monitorovania bezpečnosti
Osvedčené postupy červeného tímu AI
Akovýskumník červeného tímu AIpoužívajúci Shannon AI, ste súčasťou komunity venovanej pochopeniu a zmierňovaniu rizík AI. Dodržiavajte tieto osvedčené postupy:
Pred testovaním
- Definujte jasné výskumné ciele spojené so zlepšením bezpečnosti AI
- Získajte potrebné inštitucionálne schválenia a etické posúdenie
- Dokumentujte svoju testovaciu metodológiu a očakávané výsledky
- Zabezpečte bezpečné úložisko pre akékoľvek citlivé výstupy
Počas testovania
- Pracujte v izolovaných výskumných prostrediach
- Zaznamenávajte všetky dopyty a výstupy pre účely auditu
- Okamžite zastavte, ak generujete obsah mimo rozsahu výskumu
- Minimalizujte vystavenie citlivých výstupov členom tímu
Po testovaní
- Bezpečne odstráňte výstupy, ktoré už nie sú potrebné
- Pripravte zodpovedné zverejnenie pre významné zistenia
- Zdieľajte metodologické poznatky s výskumnou komunitou
- Aktualizujte svoje výskumné protokoly na základe poznatkov
Proces zodpovedného zverejnenia
Keď váš výskum so Shannon AI odhalí významné zraniteľnosti alebo poznatky odôslednom správaní necenzurovanej AI, dodržujte tento proces zverejnenia:
Dokumentujte
Zaznamenajte zistenia s kompletnou metodológiou
Posúďte
Vyhodnoťte potenciálnu škodu v prípade zverejnenia
Oznámte
Odošlite Shannon AI na posúdenie
Koordinujte
Spolupracujte s dotknutými stranami
Zverejnite
Zverejnite po zavedení zmierňujúcich opatrení
Kontakt pre zverejnenie:Odošlite správy o zraniteľnostiach nasecurity@shannon.ais [ZODPOVEDNÉ ZVEREJNENIE] v predmete. Zaväzujeme sa odpovedať do 48 hodín.
️ Pochopenie dôležitosti bezpečnostných zábran AI
Váš výskum s necenzurovanými modelmi Shannon AI slúži kritickému účelu: demonštrovať prečodôležitosť bezpečnostných zábran AIje prvoradá. Pozorovanímnásledného správania necenzurovanej AIpomáhate širšej komunite AI pochopiť:
- Čo môžu systémy AI produkovať bez bezpečnostných obmedzení
- Ako sa môžu protivníci pokúsiť obísť bezpečnostné opatrenia
- Kde sú súčasné bezpečnostné zábrany nedostatočné alebo ľahko obchádzateľné
- Aké nové bezpečnostné mechanizmy sú potrebné pre budúce systémy AI
- Ako navrhnúť robustnejšie techniky zarovnania
Pamätajte:Každý výstup, ktorý pozorujete, je dôkazom toho, prečo sú bezpečnostné zábrany dôležité. Váš výskum priamo prispieva k tomu, aby bola AI bezpečnejšia pre všetkých.
️ Porušenia a dôsledky
Porušenia tejto Zásady zodpovedného používania budú mať za následok:
- Prvé porušenie (menšie):Písomné upozornenie a povinná revízia zásad
- Druhé porušenie:Dočasné pozastavenie (30-90 dní) do preskúmania
- Závažné porušenie:Okamžité ukončenie a inštitucionálne oznámenie
- Nezákonná činnosť:Ukončenie, inštitucionálne oznámenie a postúpenie orgánom činným v trestnom konaní
Vedieme komplexné záznamy o používaní a využívame automatizované systémy na detekciu porušení zásad. Všetci výskumníci súhlasia s týmto monitorovaním ako podmienkou prístupu.
Sľub výskumníka
"Zaväzujem sa používať necenzurované modely Shannon AI výlučne na legitímny výskum bezpečnosti AI. Budem chrániť citlivé výstupy, zodpovedne zverejňovať zistenia a vždy uprednostňovať cieľ urobiť systémy AI bezpečnejšími pre ľudstvo. Chápem, že môj prístup prichádza so zodpovednosťou, a budem ctiť dôveru, ktorú do mňa vložila výskumná komunita v oblasti bezpečnosti AI."