Nedržíme ani nezpřístupňujeme data žádného uživatele a nepozastavujeme účty, pokud to nevyžaduje zákonný orgán.

Naše poslání

Shannon AI existuje, aby posunuladůležitost bezpečnostních zábran AIprostřednictvím odpovědného výzkumu. Poskytnutím přístupu knecenzurované AImodelům, umožňujeme výzkumníkům porozumětdůslednému chování necenzurované AI—ne proto, abychom způsobili škodu, ale abychom vybudovali lepší a bezpečnější systémy AI pro všechny.

Výzkum na prvním místě

Veškeré použití musí sloužit legitimním výzkumným cílům

Nezpůsobovat škodu

Nikdy nepoužívejte výstupy k poškození jednotlivců nebo společnosti

Odpovědné zveřejnění

Sdílejte zjištění, která zlepšují bezpečnost AI

Bezpečnost na prvním místě

Chraňte citlivé výzkumné materiály

Transparentnost

Dokumentujte metody a udržujte auditní záznamy

Odpovědnost

Převezměte odpovědnost za svůj výzkum

Pokyny pro přijatelné použití

DĚLEJTE

  • Zkoumejte zranitelnosti AI pro zlepšení bezpečnosti
  • Testujte účinnost bezpečnostních zábran
  • Vyvíjejte nové bezpečnostní mechanismy
  • Zveřejňujte odpovědná zjištění
  • Spolupracujte s komunitou pro bezpečnost AI
  • Dokumentujte svou metodologii
  • Hlaste kritické zranitelnosti

NEDĚLEJTE

  • Generujte škodlivý obsah k distribuci
  • Vytvářejte instrukce pro zbraně nebo malware
  • Vytvářejte jakýkoli nelegální obsah
  • Nasazujte výstupy do produkce
  • Sdílejte přístup s neoprávněnými uživateli
  • Používejte pro komerční účely
  • Obcházejte systémy monitorování bezpečnosti

Nejlepší postupy AI Red Teamu

Jakovýzkumník AI red teamupoužívající Shannon AI, jste součástí komunity, která se věnuje pochopení a zmírnění rizik AI. Dodržujte tyto osvědčené postupy:

Před testováním

  • Definujte jasné výzkumné cíle spojené se zlepšením bezpečnosti AI
  • Získejte potřebná institucionální schválení a etické posouzení
  • Dokumentujte svou testovací metodologii a očekávané výsledky
  • Zajistěte bezpečné uložení pro jakékoli citlivé výstupy

Během testování

  • Pracujte v izolovaných výzkumných prostředích
  • Zaznamenávejte všechny dotazy a výstupy pro účely auditu
  • Okamžitě zastavte, pokud generujete obsah mimo rozsah výzkumu
  • Minimalizujte vystavení citlivých výstupů členům týmu

Po testování

  • Bezpečně smažte výstupy, které již nejsou potřeba
  • Připravte odpovědné zveřejnění pro významná zjištění
  • Sdílejte metodologické poznatky s výzkumnou komunitou
  • Aktualizujte své výzkumné protokoly na základě poznatků

Proces odpovědného zveřejnění

Když váš výzkum se Shannon AI odhalí významné zranitelnosti nebo poznatky odůsledném chování necenzurované AIdodržujte tento proces zveřejnění:

1

Dokumentujte

Zaznamenejte zjištění s kompletní metodologií

2

Posuďte

Vyhodnoťte potenciální škodu v případě zveřejnění

3

Oznamte

Předložte Shannon AI k posouzení

4

Koordinujte

Spolupracujte s dotčenými stranami

5

Zveřejněte

Zveřejněte po zavedení zmírňujících opatření

Kontakt pro zveřejnění:Odesílejte zprávy o zranitelnostech nasecurity@shannon.ais [ODPOVĚDNÉ ZVEŘEJNĚNÍ] v předmětu. Zavazujeme se odpovědět do 48 hodin.

️ Pochopení důležitosti bezpečnostních zábran AI

Váš výzkum s necenzurovanými modely Shannon AI slouží kritickému účelu: demonstrovat, proč jedůležitost bezpečnostních zábran AIprvořadá. Pozorovánímdůsledného chování necenzurované AIpomáháte širší komunitě AI pochopit:

  • Co by systémy AI mohly produkovat bez bezpečnostních omezení
  • Jak by se protivníci mohli pokusit obejít bezpečnostní opatření
  • Kde jsou současné bezpečnostní zábrany nedostatečné nebo snadno obejitelné
  • Jaké nové bezpečnostní mechanismy jsou potřeba pro budoucí systémy AI
  • Jak navrhnout robustnější techniky zarovnání

Pamatujte:Každý výstup, který pozorujete, je důkazem, proč jsou bezpečnostní zábrany důležité. Váš výzkum přímo přispívá k tomu, aby byla AI bezpečnější pro všechny.

️ Porušení a důsledky

Porušení těchto Zásad odpovědného používání bude mít za následek:

  • První porušení (menší):Písemné varování a povinná revize zásad
  • Druhé porušení:Dočasné pozastavení (30-90 dní) do doby posouzení
  • Závažné porušení:Okamžité ukončení a oznámení instituci
  • Nelegální činnost:Ukončení, oznámení instituci a předání orgánům činným v trestním řízení

Vedeme komplexní protokoly o používání a využíváme automatizované systémy k detekci porušení zásad. Všichni výzkumníci souhlasí s tímto monitorováním jako s podmínkou přístupu.

Slib výzkumníka

"Zavazuji se používat necenzurované modely Shannon AI výhradně pro legitimní výzkum bezpečnosti AI. Budu chránit citlivé výstupy, odpovědně zveřejňovat zjištění a vždy upřednostňovat cíl učinit systémy AI bezpečnějšími pro lidstvo. Chápu, že můj přístup je spojen s odpovědností, a budu ctít důvěru, kterou do mě vložila výzkumná komunita pro bezpečnost AI."

— Každý výzkumník Shannon AI

Všechny výzkumné odkazy