Zásady odpovědného používání
Pokyny pro etický výzkum AI red teamu se Shannon AI
Výzkum na prvním místě
Veškeré použití musí sloužit legitimním výzkumným cílům
Nezpůsobovat škodu
Nikdy nepoužívejte výstupy k poškození jednotlivců nebo společnosti
Odpovědné zveřejnění
Sdílejte zjištění, která zlepšují bezpečnost AI
Bezpečnost na prvním místě
Chraňte citlivé výzkumné materiály
Transparentnost
Dokumentujte metody a udržujte auditní záznamy
Odpovědnost
Převezměte odpovědnost za svůj výzkum
Pokyny pro přijatelné použití
DĚLEJTE
- Zkoumejte zranitelnosti AI pro zlepšení bezpečnosti
- Testujte účinnost bezpečnostních zábran
- Vyvíjejte nové bezpečnostní mechanismy
- Zveřejňujte odpovědná zjištění
- Spolupracujte s komunitou pro bezpečnost AI
- Dokumentujte svou metodologii
- Hlaste kritické zranitelnosti
NEDĚLEJTE
- Generujte škodlivý obsah k distribuci
- Vytvářejte instrukce pro zbraně nebo malware
- Vytvářejte jakýkoli nelegální obsah
- Nasazujte výstupy do produkce
- Sdílejte přístup s neoprávněnými uživateli
- Používejte pro komerční účely
- Obcházejte systémy monitorování bezpečnosti
Nejlepší postupy AI Red Teamu
Jakovýzkumník AI red teamupoužívající Shannon AI, jste součástí komunity, která se věnuje pochopení a zmírnění rizik AI. Dodržujte tyto osvědčené postupy:
Před testováním
- Definujte jasné výzkumné cíle spojené se zlepšením bezpečnosti AI
- Získejte potřebná institucionální schválení a etické posouzení
- Dokumentujte svou testovací metodologii a očekávané výsledky
- Zajistěte bezpečné uložení pro jakékoli citlivé výstupy
Během testování
- Pracujte v izolovaných výzkumných prostředích
- Zaznamenávejte všechny dotazy a výstupy pro účely auditu
- Okamžitě zastavte, pokud generujete obsah mimo rozsah výzkumu
- Minimalizujte vystavení citlivých výstupů členům týmu
Po testování
- Bezpečně smažte výstupy, které již nejsou potřeba
- Připravte odpovědné zveřejnění pro významná zjištění
- Sdílejte metodologické poznatky s výzkumnou komunitou
- Aktualizujte své výzkumné protokoly na základě poznatků
Proces odpovědného zveřejnění
Když váš výzkum se Shannon AI odhalí významné zranitelnosti nebo poznatky odůsledném chování necenzurované AIdodržujte tento proces zveřejnění:
Dokumentujte
Zaznamenejte zjištění s kompletní metodologií
Posuďte
Vyhodnoťte potenciální škodu v případě zveřejnění
Oznamte
Předložte Shannon AI k posouzení
Koordinujte
Spolupracujte s dotčenými stranami
Zveřejněte
Zveřejněte po zavedení zmírňujících opatření
Kontakt pro zveřejnění:Odesílejte zprávy o zranitelnostech nasecurity@shannon.ais [ODPOVĚDNÉ ZVEŘEJNĚNÍ] v předmětu. Zavazujeme se odpovědět do 48 hodin.
️ Pochopení důležitosti bezpečnostních zábran AI
Váš výzkum s necenzurovanými modely Shannon AI slouží kritickému účelu: demonstrovat, proč jedůležitost bezpečnostních zábran AIprvořadá. Pozorovánímdůsledného chování necenzurované AIpomáháte širší komunitě AI pochopit:
- Co by systémy AI mohly produkovat bez bezpečnostních omezení
- Jak by se protivníci mohli pokusit obejít bezpečnostní opatření
- Kde jsou současné bezpečnostní zábrany nedostatečné nebo snadno obejitelné
- Jaké nové bezpečnostní mechanismy jsou potřeba pro budoucí systémy AI
- Jak navrhnout robustnější techniky zarovnání
Pamatujte:Každý výstup, který pozorujete, je důkazem, proč jsou bezpečnostní zábrany důležité. Váš výzkum přímo přispívá k tomu, aby byla AI bezpečnější pro všechny.
️ Porušení a důsledky
Porušení těchto Zásad odpovědného používání bude mít za následek:
- První porušení (menší):Písemné varování a povinná revize zásad
- Druhé porušení:Dočasné pozastavení (30-90 dní) do doby posouzení
- Závažné porušení:Okamžité ukončení a oznámení instituci
- Nelegální činnost:Ukončení, oznámení instituci a předání orgánům činným v trestním řízení
Vedeme komplexní protokoly o používání a využíváme automatizované systémy k detekci porušení zásad. Všichni výzkumníci souhlasí s tímto monitorováním jako s podmínkou přístupu.
Slib výzkumníka
"Zavazuji se používat necenzurované modely Shannon AI výhradně pro legitimní výzkum bezpečnosti AI. Budu chránit citlivé výstupy, odpovědně zveřejňovat zjištění a vždy upřednostňovat cíl učinit systémy AI bezpečnějšími pro lidstvo. Chápu, že můj přístup je spojen s odpovědností, a budu ctít důvěru, kterou do mě vložila výzkumná komunita pro bezpečnost AI."