Neuchovávame ani nepristupujeme k údajom žiadneho používateľa a nepozastavujeme účty, pokiaľ to nevyžaduje zákonný orgán.

Naše poslanie

Shannon AI existuje na pokrokdôležitosti bezpečnostných zábran AIprostredníctvom zodpovedného výskumu. Poskytovaním prístupu knecenzurovanej AImodelom, umožňujeme výskumníkom pochopiťdôsledné správanie necenzurovanej AI—nie s cieľom spôsobiť škodu, ale s cieľom vybudovať lepšie a bezpečnejšie systémy AI pre všetkých.

Výskum na prvom mieste

Všetko používanie musí slúžiť legitímnym výskumným cieľom

Neškodiť

Nikdy nepoužívajte výstupy na poškodenie jednotlivcov alebo spoločnosti

Zodpovedné zverejnenie

Zdieľajte zistenia, ktoré zlepšujú bezpečnosť AI

Bezpečnosť na prvom mieste

Chráňte citlivé výskumné materiály

Transparentnosť

Dokumentujte metódy a udržiavajte auditné záznamy

Zodpovednosť

Prevezmite zodpovednosť za svoj výskum

Usmernenia pre prijateľné používanie

ROBTE

  • Skúmajte zraniteľnosti AI na zlepšenie bezpečnosti
  • Testujte účinnosť bezpečnostných zábran
  • Vyvíjajte nové bezpečnostné mechanizmy
  • Zverejňujte zodpovedné zistenia
  • Spolupracujte s komunitou pre bezpečnosť AI
  • Dokumentujte svoju metodológiu
  • Nahláste kritické zraniteľnosti

NEROBTE

  • Generujte škodlivý obsah na distribúciu
  • Vytvárajte pokyny pre zbrane alebo malware
  • Vytvárajte akýkoľvek nelegálny obsah
  • Nasadzujte výstupy do produkcie
  • Zdieľajte prístup s neoprávnenými používateľmi
  • Používajte na komerčné účely
  • Obchádzajte systémy monitorovania bezpečnosti

Osvedčené postupy červeného tímu AI

Akovýskumník červeného tímu AIpoužívajúci Shannon AI, ste súčasťou komunity venovanej pochopeniu a zmierňovaniu rizík AI. Dodržiavajte tieto osvedčené postupy:

Pred testovaním

  • Definujte jasné výskumné ciele spojené so zlepšením bezpečnosti AI
  • Získajte potrebné inštitucionálne schválenia a etické posúdenie
  • Dokumentujte svoju testovaciu metodológiu a očakávané výsledky
  • Zabezpečte bezpečné úložisko pre akékoľvek citlivé výstupy

Počas testovania

  • Pracujte v izolovaných výskumných prostrediach
  • Zaznamenávajte všetky dopyty a výstupy pre účely auditu
  • Okamžite zastavte, ak generujete obsah mimo rozsahu výskumu
  • Minimalizujte vystavenie citlivých výstupov členom tímu

Po testovaní

  • Bezpečne odstráňte výstupy, ktoré už nie sú potrebné
  • Pripravte zodpovedné zverejnenie pre významné zistenia
  • Zdieľajte metodologické poznatky s výskumnou komunitou
  • Aktualizujte svoje výskumné protokoly na základe poznatkov

Proces zodpovedného zverejnenia

Keď váš výskum so Shannon AI odhalí významné zraniteľnosti alebo poznatky odôslednom správaní necenzurovanej AI, dodržujte tento proces zverejnenia:

1

Dokumentujte

Zaznamenajte zistenia s kompletnou metodológiou

2

Posúďte

Vyhodnoťte potenciálnu škodu v prípade zverejnenia

3

Oznámte

Odošlite Shannon AI na posúdenie

4

Koordinujte

Spolupracujte s dotknutými stranami

5

Zverejnite

Zverejnite po zavedení zmierňujúcich opatrení

Kontakt pre zverejnenie:Odošlite správy o zraniteľnostiach nasecurity@shannon.ais [ZODPOVEDNÉ ZVEREJNENIE] v predmete. Zaväzujeme sa odpovedať do 48 hodín.

️ Pochopenie dôležitosti bezpečnostných zábran AI

Váš výskum s necenzurovanými modelmi Shannon AI slúži kritickému účelu: demonštrovať prečodôležitosť bezpečnostných zábran AIje prvoradá. Pozorovanímnásledného správania necenzurovanej AIpomáhate širšej komunite AI pochopiť:

  • Čo môžu systémy AI produkovať bez bezpečnostných obmedzení
  • Ako sa môžu protivníci pokúsiť obísť bezpečnostné opatrenia
  • Kde sú súčasné bezpečnostné zábrany nedostatočné alebo ľahko obchádzateľné
  • Aké nové bezpečnostné mechanizmy sú potrebné pre budúce systémy AI
  • Ako navrhnúť robustnejšie techniky zarovnania

Pamätajte:Každý výstup, ktorý pozorujete, je dôkazom toho, prečo sú bezpečnostné zábrany dôležité. Váš výskum priamo prispieva k tomu, aby bola AI bezpečnejšia pre všetkých.

️ Porušenia a dôsledky

Porušenia tejto Zásady zodpovedného používania budú mať za následok:

  • Prvé porušenie (menšie):Písomné upozornenie a povinná revízia zásad
  • Druhé porušenie:Dočasné pozastavenie (30-90 dní) do preskúmania
  • Závažné porušenie:Okamžité ukončenie a inštitucionálne oznámenie
  • Nezákonná činnosť:Ukončenie, inštitucionálne oznámenie a postúpenie orgánom činným v trestnom konaní

Vedieme komplexné záznamy o používaní a využívame automatizované systémy na detekciu porušení zásad. Všetci výskumníci súhlasia s týmto monitorovaním ako podmienkou prístupu.

Sľub výskumníka

"Zaväzujem sa používať necenzurované modely Shannon AI výlučne na legitímny výskum bezpečnosti AI. Budem chrániť citlivé výstupy, zodpovedne zverejňovať zistenia a vždy uprednostňovať cieľ urobiť systémy AI bezpečnejšími pre ľudstvo. Chápem, že môj prístup prichádza so zodpovednosťou, a budem ctiť dôveru, ktorú do mňa vložila výskumná komunita v oblasti bezpečnosti AI."

— Každý výskumník Shannon AI

Všetky výskumné odkazy