Richtlinie zur verantwortungsvollen Nutzung
Richtlinien für ethische KI-Red-Team-Forschung mit Shannon AI
Forschung zuerst
Jede Nutzung muss legitimen Forschungszielen dienen
Füge keinen Schaden zu
Verwenden Sie Ergebnisse niemals dazu, Einzelpersonen oder der Gesellschaft zu schaden
Verantwortungsvolle Offenlegung
Teilen Sie Erkenntnisse, die die KI-Sicherheit verbessern
Sicherheit geht vor
Schützen Sie sensible Forschungsmaterialien
Transparenz
Dokumentieren Sie Methoden und pflegen Sie Prüfpfade
Rechenschaftspflicht
Übernehmen Sie Verantwortung für Ihre Forschung
Richtlinien zur akzeptablen Nutzung
TUN
- Erforschen Sie KI-Schwachstellen, um die Sicherheit zu verbessern
- Testen Sie die Wirksamkeit der Leitplanke
- Entwickeln Sie neue Sicherheitsmechanismen
- Veröffentlichen Sie verantwortungsvolle Erkenntnisse
- Arbeiten Sie mit der KI-Sicherheitsgemeinschaft zusammen
- Dokumentieren Sie Ihre Methodik
- Melden Sie kritische Schwachstellen
NICHT
- Generieren Sie schädliche Inhalte zur Verbreitung
- Erstellen Sie Waffen- oder Malware-Anweisungen
- Produzieren Sie illegale Inhalte jeglicher Art
- Stellen Sie Ausgaben in der Produktion bereit
- Teilen Sie den Zugriff mit nicht autorisierten Benutzern
- Nutzung für kommerzielle Zwecke
- Sicherheitsüberwachungssysteme umgehen
Best Practices für das AI Red Team
AlsKI-Rotes TeamAls Forscher, der Shannon AI nutzt, sind Sie Teil einer Community, die sich dem Verständnis und der Minderung von KI-Risiken widmet. Befolgen Sie diese Best Practices:
Vor dem Testen
- Definieren Sie klare Forschungsziele, die mit Verbesserungen der KI-Sicherheit verknüpft sind
- Holen Sie die erforderlichen institutionellen Genehmigungen und Ethikprüfungen ein
- Dokumentieren Sie Ihre Testmethodik und die erwarteten Ergebnisse
- Sorgen Sie für eine sichere Speicherung aller sensiblen Ausgaben
Während des Tests
- Arbeiten Sie in isolierten Forschungsumgebungen
- Protokollieren Sie alle Abfragen und Ausgaben zu Prüfzwecken
- Hören Sie sofort auf, wenn Sie Inhalte erstellen, die außerhalb des Forschungsbereichs liegen
- Minimieren Sie die Offenlegung sensibler Ergebnisse für Teammitglieder
Nach dem Testen
- Nicht mehr benötigte Ausgaben sicher löschen
- Bereiten Sie eine verantwortungsvolle Offenlegung wichtiger Erkenntnisse vor
- Teilen Sie methodische Erkenntnisse mit der Forschungsgemeinschaft
- Aktualisieren Sie Ihre Forschungsprotokolle basierend auf Erkenntnissen
Verantwortungsvoller Offenlegungsprozess
Wenn Ihre Forschung mit Shannon AI erhebliche Schwachstellen oder Erkenntnisse darüber aufdecktunzensierte KI konsequentVerhaltensweisen, folgen Sie diesem Offenlegungsprozess:
Dokumentieren
Erfassen Sie Ergebnisse mit vollständiger Methodik
Bewerten
Bewerten Sie den potenziellen Schaden, wenn er offengelegt wird
Benachrichtigen
Zur Überprüfung an Shannon AI senden
Koordinieren
Arbeiten Sie mit Betroffenen zusammen
Veröffentlichen
Veröffentlichung nach Einführung von Abhilfemaßnahmen
Offenlegungskontakt:Senden Sie Schwachstellenberichte ansecurity@shannon.aimit [VERANTWORTLICHE OFFENLEGUNG] in der Betreffzeile. Wir verpflichten uns, innerhalb von 48 Stunden zu antworten.
️ Die Bedeutung von KI-Leitplanken verstehen
Ihre Forschung mit den unzensierten Modellen von Shannon AI dient einem entscheidenden Zweck: zu zeigen, warumBedeutung der KI-Leitplankeist von größter Bedeutung. Durch Beobachtenunzensierte KI konsequentVerhaltensweisen helfen Sie der breiteren KI-Community zu verstehen:
- Was KI-Systeme ohne Sicherheitseinschränkungen leisten könnten
- Wie Gegner versuchen könnten, Sicherheitsmaßnahmen zu umgehen
- Wo die aktuellen Leitplanken unzureichend sind oder leicht umgangen werden können
- Welche neuen Sicherheitsmechanismen werden für zukünftige KI-Systeme benötigt?
- So entwerfen Sie robustere Ausrichtungstechniken
Erinnern:Jede Ausgabe, die Sie beobachten, ist ein Beweis dafür, warum Leitplanken wichtig sind. Ihre Forschung trägt direkt dazu bei, KI für alle sicherer zu machen.
️ Verstöße und Konsequenzen
Verstöße gegen diese Richtlinie zur verantwortungsvollen Nutzung führen zu Folgendem:
- Erster Verstoß (geringfügig):Schriftliche Warnung und obligatorische Richtlinienüberprüfung
- Zweiter Verstoß:Vorübergehende Aussetzung (30–90 Tage) bis zur Überprüfung
- Schwerer Verstoß:Sofortige Kündigung und institutionelle Benachrichtigung
- Illegale Aktivität:Kündigung, institutionelle Benachrichtigung und Überweisung an die Strafverfolgungsbehörden
Wir führen umfassende Nutzungsprotokolle und setzen automatisierte Systeme ein, um Richtlinienverstöße zu erkennen. Alle Forscher stimmen dieser Überwachung als Zugangsbedingung zu.
Forscherversprechen
„Ich verpflichte mich, die unzensierten Modelle von Shannon AI ausschließlich für legitime KI-Sicherheitsforschung zu verwenden. Ich werde sensible Ergebnisse schützen, Ergebnisse verantwortungsvoll offenlegen und stets das Ziel priorisieren, KI-Systeme für die Menschheit sicherer zu machen. Ich verstehe, dass mein Zugang mit Verantwortung verbunden ist, und ich werde das Vertrauen würdigen, das mir die KI-Sicherheitsforschungsgemeinschaft entgegenbringt.“