Nie przechowujemy ani nie uzyskujemy dostępu do danych żadnego użytkownika i nie zawieszamy kont, chyba że organ działający zgodnie z prawem wymaga podjęcia działań egzekucyjnych.

Nasza Misja

Shannon AI istnieje, aby rozwijaćznaczenie zabezpieczeń AIpoprzez odpowiedzialne badania. Zapewniając dostęp donieocenzurowanej AImodeli, umożliwiamy badaczom zrozumieniekonsekwentnych zachowań nieocenzurowanej AIzachowań — nie po to, by szkodzić, lecz by budować lepsze, bezpieczniejsze systemy AI dla wszystkich.

Badania Przede Wszystkim

Wszelkie użycie musi służyć uzasadnionym celom badawczym

Nie Szkodź

Nigdy nie używaj wyników do szkodzenia jednostkom ani społeczeństwu

Odpowiedzialne Ujawnianie

Udostępniaj odkrycia, które poprawiają bezpieczeństwo AI

Bezpieczeństwo Przede Wszystkim

Chroń wrażliwe materiały badawcze

Przejrzystość

Dokumentuj metody i utrzymuj ścieżki audytu

Odpowiedzialność

Weź odpowiedzialność za swoje badania

Wytyczne Dotyczące Dopuszczalnego Użytkowania

RÓB

  • Badaj luki w AI w celu poprawy bezpieczeństwa
  • Testuj skuteczność zabezpieczeń
  • Opracowuj nowe mechanizmy bezpieczeństwa
  • Publikuj odpowiedzialne odkrycia
  • Współpracuj ze społecznością bezpieczeństwa AI
  • Dokumentuj swoją metodologię
  • Zgłaszaj krytyczne luki

NIE RÓB

  • Generuj szkodliwe treści do dystrybucji
  • Twórz instrukcje dotyczące broni lub złośliwego oprogramowania
  • Twórz nielegalne treści wszelkiego rodzaju
  • Wdrażaj wyniki w środowisku produkcyjnym
  • Udostępniaj dostęp nieautoryzowanym użytkownikom
  • Używaj do celów komercyjnych
  • Omijaj systemy monitorowania bezpieczeństwa

Najlepsze Praktyki Zespołu Czerwonego AI

Jakozespół czerwony AIbadacz używający Shannon AI, jesteś częścią społeczności poświęconej zrozumieniu i łagodzeniu ryzyka związanego z AI. Postępuj zgodnie z tymi najlepszymi praktykami:

Przed Testowaniem

  • Zdefiniuj jasne cele badawcze związane z poprawą bezpieczeństwa AI
  • Uzyskaj niezbędne zgody instytucjonalne i przegląd etyczny
  • Dokumentuj swoją metodologię testowania i oczekiwane wyniki
  • Zapewnij bezpieczne przechowywanie wszelkich wrażliwych wyników

Podczas Testowania

  • Pracuj w izolowanych środowiskach badawczych
  • Rejestruj wszystkie zapytania i wyniki do celów audytu
  • Zatrzymaj się natychmiast, jeśli generujesz treści poza zakresem badań
  • Minimalizuj ekspozycję wrażliwych wyników na członków zespołu

Po Testowaniu

  • Bezpiecznie usuwaj wyniki, które nie są już potrzebne
  • Przygotuj odpowiedzialne ujawnienie dla znaczących odkryć
  • Dziel się spostrzeżeniami metodologicznymi ze społecznością badawczą
  • Aktualizuj swoje protokoły badawcze w oparciu o zdobyte doświadczenia

Proces Odpowiedzialnego Ujawniania

Gdy twoje badania z Shannon AI ujawnią znaczące luki lub spostrzeżenia dotyczącekonsekwentnych zachowań nieocenzurowanej AIzachowań, postępuj zgodnie z tym procesem ujawniania:

1

Dokumentuj

Zapisuj odkrycia z pełną metodologią

2

Oceniaj

Oceń potencjalne szkody w przypadku ujawnienia

3

Powiadamiaj

Prześlij do Shannon AI do przeglądu

4

Koordynuj

Współpracuj z zainteresowanymi stronami

5

Publikuj

Udostępnij po wdrożeniu środków zaradczych

Kontakt w sprawie Ujawnienia:Prześlij raporty o lukach dosecurity@shannon.aiz [ODPOWIEDZIALNE UJAWNIENIE] w temacie. Zobowiązujemy się odpowiedzieć w ciągu 48 godzin.

️ Zrozumienie znaczenia barier bezpieczeństwa AI

Twoje badania z niecenzurowanymi modelami Shannon AI służą krytycznemu celowi: demonstrowaniu, dlaczegoznaczenie barier bezpieczeństwa AIjest najważniejsze. Obserwująckonsekwencje niecenzurowanej AIzachowania, pomagasz szerszej społeczności AI zrozumieć:

  • Co systemy AI mogą wytworzyć bez ograniczeń bezpieczeństwa
  • Jak przeciwnicy mogą próbować ominąć środki bezpieczeństwa
  • Gdzie obecne bariery bezpieczeństwa są niewystarczające lub łatwe do obejścia
  • Jakie nowe mechanizmy bezpieczeństwa są potrzebne dla przyszłych systemów AI
  • Jak projektować bardziej solidne techniki wyrównywania

Pamiętaj:Każdy obserwowany wynik jest dowodem na to, dlaczego bariery bezpieczeństwa są ważne. Twoje badania bezpośrednio przyczyniają się do uczynienia AI bezpieczniejszą dla wszystkich.

️ Naruszenia i Konsekwencje

Naruszenia niniejszej Polityki Odpowiedzialnego Użytkowania skutkować będą:

  • Pierwsze Naruszenie (Drobne):Pisane ostrzeżenie i obowiązkowy przegląd polityki
  • Drugie Naruszenie:Tymczasowe zawieszenie (30-90 dni) do czasu przeglądu
  • Poważne Naruszenie:Natychmiastowe zakończenie współpracy i powiadomienie instytucjonalne
  • Nielegalna Działalność:Zakończenie współpracy, powiadomienie instytucjonalne i skierowanie do organów ścigania

Prowadzimy kompleksowe dzienniki użytkowania i stosujemy zautomatyzowane systemy do wykrywania naruszeń polityki. Wszyscy badacze zgadzają się na to monitorowanie jako warunek dostępu.

Zobowiązanie Badacza

"Zobowiązuję się do używania niecenzurowanych modeli Shannon AI wyłącznie do uzasadnionych badań nad bezpieczeństwem AI. Będę chronić wrażliwe wyniki, ujawniać odkrycia w sposób odpowiedzialny i zawsze priorytetowo traktować cel uczynienia systemów AI bezpieczniejszymi dla ludzkości. Rozumiem, że mój dostęp wiąże się z odpowiedzialnością i będę szanować zaufanie, jakim obdarzyła mnie społeczność badawcza bezpieczeństwa AI."

— Każdy Badacz Shannon AI

Wszystkie linki badawcze