Wir speichern keine Nutzerdaten und greifen nicht darauf zu, und wir sperren keine Konten, es sei denn, eine rechtmäßige Behörde verlangt Durchsetzungsmaßnahmen.

Unsere Mission

Shannon AI existiert, um voranzukommenBedeutung der KI-Leitplankedurch verantwortungsvolle Forschung. Durch die Bereitstellung des Zugriffs aufunzensierte KIWir ermöglichen Forschern, Modelle zu verstehenunzensierte KI konsequentVerhaltensweisen – nicht um Schaden anzurichten, sondern um bessere und sicherere KI-Systeme für alle zu entwickeln.

Forschung zuerst

Jede Nutzung muss legitimen Forschungszielen dienen

Füge keinen Schaden zu

Verwenden Sie Ergebnisse niemals dazu, Einzelpersonen oder der Gesellschaft zu schaden

Verantwortungsvolle Offenlegung

Teilen Sie Erkenntnisse, die die KI-Sicherheit verbessern

Sicherheit geht vor

Schützen Sie sensible Forschungsmaterialien

Transparenz

Dokumentieren Sie Methoden und pflegen Sie Prüfpfade

Rechenschaftspflicht

Übernehmen Sie Verantwortung für Ihre Forschung

Richtlinien zur akzeptablen Nutzung

TUN

  • Erforschen Sie KI-Schwachstellen, um die Sicherheit zu verbessern
  • Testen Sie die Wirksamkeit der Leitplanke
  • Entwickeln Sie neue Sicherheitsmechanismen
  • Veröffentlichen Sie verantwortungsvolle Erkenntnisse
  • Arbeiten Sie mit der KI-Sicherheitsgemeinschaft zusammen
  • Dokumentieren Sie Ihre Methodik
  • Melden Sie kritische Schwachstellen

NICHT

  • Generieren Sie schädliche Inhalte zur Verbreitung
  • Erstellen Sie Waffen- oder Malware-Anweisungen
  • Produzieren Sie illegale Inhalte jeglicher Art
  • Stellen Sie Ausgaben in der Produktion bereit
  • Teilen Sie den Zugriff mit nicht autorisierten Benutzern
  • Nutzung für kommerzielle Zwecke
  • Sicherheitsüberwachungssysteme umgehen

Best Practices für das AI Red Team

AlsKI-Rotes TeamAls Forscher, der Shannon AI nutzt, sind Sie Teil einer Community, die sich dem Verständnis und der Minderung von KI-Risiken widmet. Befolgen Sie diese Best Practices:

Vor dem Testen

  • Definieren Sie klare Forschungsziele, die mit Verbesserungen der KI-Sicherheit verknüpft sind
  • Holen Sie die erforderlichen institutionellen Genehmigungen und Ethikprüfungen ein
  • Dokumentieren Sie Ihre Testmethodik und die erwarteten Ergebnisse
  • Sorgen Sie für eine sichere Speicherung aller sensiblen Ausgaben

Während des Tests

  • Arbeiten Sie in isolierten Forschungsumgebungen
  • Protokollieren Sie alle Abfragen und Ausgaben zu Prüfzwecken
  • Hören Sie sofort auf, wenn Sie Inhalte erstellen, die außerhalb des Forschungsbereichs liegen
  • Minimieren Sie die Offenlegung sensibler Ergebnisse für Teammitglieder

Nach dem Testen

  • Nicht mehr benötigte Ausgaben sicher löschen
  • Bereiten Sie eine verantwortungsvolle Offenlegung wichtiger Erkenntnisse vor
  • Teilen Sie methodische Erkenntnisse mit der Forschungsgemeinschaft
  • Aktualisieren Sie Ihre Forschungsprotokolle basierend auf Erkenntnissen

Verantwortungsvoller Offenlegungsprozess

Wenn Ihre Forschung mit Shannon AI erhebliche Schwachstellen oder Erkenntnisse darüber aufdecktunzensierte KI konsequentVerhaltensweisen, folgen Sie diesem Offenlegungsprozess:

1

Dokumentieren

Erfassen Sie Ergebnisse mit vollständiger Methodik

2

Bewerten

Bewerten Sie den potenziellen Schaden, wenn er offengelegt wird

3

Benachrichtigen

Zur Überprüfung an Shannon AI senden

4

Koordinieren

Arbeiten Sie mit Betroffenen zusammen

5

Veröffentlichen

Veröffentlichung nach Einführung von Abhilfemaßnahmen

Offenlegungskontakt:Senden Sie Schwachstellenberichte ansecurity@shannon.aimit [VERANTWORTLICHE OFFENLEGUNG] in der Betreffzeile. Wir verpflichten uns, innerhalb von 48 Stunden zu antworten.

️ Die Bedeutung von KI-Leitplanken verstehen

Ihre Forschung mit den unzensierten Modellen von Shannon AI dient einem entscheidenden Zweck: zu zeigen, warumBedeutung der KI-Leitplankeist von größter Bedeutung. Durch Beobachtenunzensierte KI konsequentVerhaltensweisen helfen Sie der breiteren KI-Community zu verstehen:

  • Was KI-Systeme ohne Sicherheitseinschränkungen leisten könnten
  • Wie Gegner versuchen könnten, Sicherheitsmaßnahmen zu umgehen
  • Wo die aktuellen Leitplanken unzureichend sind oder leicht umgangen werden können
  • Welche neuen Sicherheitsmechanismen werden für zukünftige KI-Systeme benötigt?
  • So entwerfen Sie robustere Ausrichtungstechniken

Erinnern:Jede Ausgabe, die Sie beobachten, ist ein Beweis dafür, warum Leitplanken wichtig sind. Ihre Forschung trägt direkt dazu bei, KI für alle sicherer zu machen.

️ Verstöße und Konsequenzen

Verstöße gegen diese Richtlinie zur verantwortungsvollen Nutzung führen zu Folgendem:

  • Erster Verstoß (geringfügig):Schriftliche Warnung und obligatorische Richtlinienüberprüfung
  • Zweiter Verstoß:Vorübergehende Aussetzung (30–90 Tage) bis zur Überprüfung
  • Schwerer Verstoß:Sofortige Kündigung und institutionelle Benachrichtigung
  • Illegale Aktivität:Kündigung, institutionelle Benachrichtigung und Überweisung an die Strafverfolgungsbehörden

Wir führen umfassende Nutzungsprotokolle und setzen automatisierte Systeme ein, um Richtlinienverstöße zu erkennen. Alle Forscher stimmen dieser Überwachung als Zugangsbedingung zu.

Forscherversprechen

„Ich verpflichte mich, die unzensierten Modelle von Shannon AI ausschließlich für legitime KI-Sicherheitsforschung zu verwenden. Ich werde sensible Ergebnisse schützen, Ergebnisse verantwortungsvoll offenlegen und stets das Ziel priorisieren, KI-Systeme für die Menschheit sicherer zu machen. Ich verstehe, dass mein Zugang mit Verantwortung verbunden ist, und ich werde das Vertrauen würdigen, das mir die KI-Sicherheitsforschungsgemeinschaft entgegenbringt.“

– Jeder KI-Forscher aus Shannon

Alle Forschungslinks